Настоящий Pro-тест: iPhone 13 Pro Max и MacBook Pro на M1 Pro в деле
Настоящий Pro-тест: iPhone 13 Pro Max и MacBook Pro на M1 Pro в деле

Настоящий Pro-тест: iPhone 13 Pro Max и MacBook Pro на M1 Pro в деле

15 декабря, 202112 минут на чтение
Подписывайтесь на [Код // Дурова] в Telegram. У нас уже 190 000 подписчиков[Код // Дурова] в Telegram

Короткое вступление

Как и год назад, мы решили сделать не традиционный обзор iPhone 13 Pro Max, а по-настоящему испытать его в деле — снять динамичный ролик со сложным светом, чтобы максимально раскрыть его профессиональные видеовозможности: «Киноэффект» и съёмку в ProRes. Прошлогодний материал об iPhone 12 Pro Max читайте по ссылке:

Мы сняли клип на iPhone 12 Pro Max в 4K и Dolby Vision: рассказываем, как это было
В начале ноября к нам приехал самый навороченный iPhone этого года — 12 Pro Max. И мы сразу же, решили испытать на практике, что могут его камеры.

За помощью мы снова обратились к нашим друзьям-профессионалам Даниилу и Нине Полухиным, они же помогли найти героя музыкального видео — очаровательную скрипачку Евгению Мальцеву.

А пока мы занимались непосредственно съёмкой, к нам на обзор приехал новый MacBook Pro 16” на базе M1 Pro с 16-ядерной графикой и 32 ГБ ОЗУ. Так сама судьба подсказала нам, на чём мы будем этот ролик монтировать.

Итак, передаю слово Даниилу, который подробно рассказал о своих впечатлениях от устройств и процесса. Поехали!

  • Фото MacBook Pro и бэкстейдж со съёмок — Нина Полухина (@d4n_photo)
  • Съёмка видео, монтаж и экспертное мнение — Даниил Полухин (@danielpolukhin)
  • Скрипка — Евгения Мальцева (@evgeniya_violin)

В этом году после анонса линейки iPhone 13 Pro меня посетила определённая эйфория — поддержка съёмки в ProRes и особенно функция «Киноэффект» виделись просто немыслимыми в смартфоне.

Чем iPhone 13 Pro отличается от iPhone 13 и iPhone 12 Pro и стоит ли обновляться? Коротко и по делу
В чём конкретно iPhone 13 Pro и iPhone 13 Pro Max превосходят своих предшественников и обычный iPhone 13, какие между ними отличия и есть ли смысл обновляться?

Казалось бы, вот он — универсальный инструмент для кинодела. Но перед тем, как выкидывать свою «Соньку», я решил не поддаваться первым эмоциям и всё тщательно протестировать. Спасибо Кириллу и «Коду Дурова» за то, что предоставили такую возможность.

Для теста в «боевых» условиях я пригласил замечательную скрипачку Евгению Мальцеву, и мы совместно решили записать небольшой отрывок композиции Crystallize Линдси Стирлинг. Кроме того, я взял iPhone 13 Pro Max в отпуск и немного поснимал на него в шале, где мы отдыхали. Но давайте обо всём по порядку.

Технические вводные

Около 80% всего футажа для Crystallize было снято в 4K ProRes 25 к/с с использованием штатного приложения «Камера» и трёхосевого стабилизатора Zhiyun Smooth Q. Некоторые кадры сделаны с «Киноэффектом» в разрешении 1080p ввиду соответствующего ограничения iPhone 13 Pro.

Именно из-за этих сцен я решил вывести финальный ролик в Full HD, поскольку при таком экстремальном освещении редкие кадры в 1080p при апскейле в 4K выглядели не так хорошо, как хотелось бы. Ролик монтировался в Adobe Premiere Pro и немного цветокорректировался в DaVinci Resolve в Dolby Vision HDR.

«Шале» снято с рук в 4K ProRes 25 к/с и в обычном режиме в 60 к/с с последующим замедлением. Кроме того, есть две вставки в 1080p с «Киноэффектом», которые апскейлнуты в 4K гораздо лучше из-за более щадящего света и отсутствия какой-либо цветокоррекции. «Шале» полностью смонтировано в Adobe Premiere Pro без цветокоррекции.

Результат

Перед тем, как продолжить рассказ о процессе и впечатлениях, предлагаю вам сразу посмотреть оба ролика, а затем возвращаться к ним по мере чтения дальнейшего текста.

Как показали себя камеры iPhone 13 Pro Max

Несмотря на то, что ультраширокоугольная камера в iPhone 13 Pro Max получила увеличенную до f/1.8 диафрагму и более быструю матрицу, в тех световых условиях, в которых мы снимали Crystallize, я не заметил разницы с iPhone 12 Pro Max (в прошлом году мы снимали с похожим светом).

Камера ощутимо «шумела», однако я не стал её сильно «шумодавить», так как побочным эффектом является потеря резкости — а её в таких условиях и так не много. Тем временем основной модуль в этом году стал снимать заметно лучше, поэтому разница в резкости между модулями становилась слишком заметной. Из двух зол — шум или «мыло» — я выбрал первое, поэтому внимательные зрители смогут заметить разницу в уровне шума между кадрами с «ультраширика» и основного модуля.

Напомню, что свет в Crystallize — это экстремальные условия для смартфона. При достаточном свете «ультраширик» снимает замечательно, что видно в ролике «Шале». В сравнении с видео на GoPro Hero 9, снятом в ProTune, картинка на iPhone 13 Pro Max «из коробки» гораздо более насыщенная и резкая.

Основной модуль в iPhone 13 Pro Max выдаёт заметно больше деталей в сравнении с iPhone 12 Pro Max. И эта разница не в цифровом «шарпинге», а именно в детализации. Во время наших тестов даже в очень суровых световых условиях он практически не «шумел».

Телефото-модуль теперь имеет эквивалентное фокусное расстояние в 77 мм, на котором гораздо лучше смотрятся лица людей. По уровню шума и детализации он лучше «ультраширика», но сильно проигрывает основному модулю.

Что касается стабилизации, то в iPhone 13 Pro Max она традиционно для iPhone отличная. Единственное, я заметил появление микро-подергиваний в кадре, которых не видел в 12 Pro Max. Этот эффект обычно присущ электронной стабилизации при низком освещении. Мною упомянутая GoPro Hero 9 делает точно так же при плохом свете. В iPhone же это наблюдалось независимо от освещения. В обоих наших тестах этот эффект хоть и не часто, но встречался. К слову, в Filmic Pro можно отключить стабилизацию, если, например, использовать смартфон с трёхосевым стабилизатором.

Как себя показал «Киноэффект»

Этот режим позволяет размывать фон при помощи алгоритмов, основываясь на данных о глубине, получаемых другими модулями камер и LiDAR-ом. Таким образом камеры и алгоритмы имитируют профессиональную кинооптику.

Ещё одной интересной функцией внутри этого режима является возможность менять имитируемую диафрагму и фокус уже после съёмки. И даже анимировать его, расставляя ключевые фреймы, что даёт невероятную гибкость в пост-продакшене.

Как я уже отмечал выше, «Киноэффект» работает только в 1080p при 30 к/с (ирония в том, что кино в основном снимают в 24 к/с). Этот режим нельзя комбинировать с ProRes и он недоступен в сторонних приложениях вроде Filmic Pro.

При этом «Киноэффект» позволяет выбирать значение диафрагмы имитируемой оптики (реальная диафрагма, естественно, остаётся неизменной) и тем самым изменять глубину резкости. Также он умеет следить фокусом за объектами и лицами и распознавать, когда человек, например, отворачивается от камеры — в этот момент фокус переводится на задний план. В промо-роликах всё это выглядело крайне любопытно, но мне было интересно, насколько «Киноэффект» может быть полезен в реальных проектах, которые мне приходится снимать.

На деле фон размывается на удивление красиво — боке смотрится органично, хотя оно и лишено характера и уникальности, присущих разной (особенно винтажной) кинооптике. Ещё один важный момент: при использовании «Киноэффект» нестабилен. В один момент он смотрится впечатляюще, и тут же, через минуту, в тех же условиях — полностью неестественно.

В процессе тестирования мне удалось выяснить, что функция:

  • не любит быстрых движений камеры;
  • в кадре нужно как можно больше света.

Во время съёмки Crystallize постоянно выскакивало уведомление о недостаточном свете, поэтому приходилось завышать экспозицию.

Вместе с тем постоянно терялся объект фокуса, гуляя от лица к скрипке и обратно. Однако несколько хороших кадров с «Киноэффектом» получить всё же удалось.

А вот где новый режим мне показался крайне полезным — это съёмки интервью. Они зачастую снимаются на выезде, и избавиться от огромного количества тяжёлых сумок с оборудованием в командировках — мечта любого оператора. В то же время интервью в плане картинки довольно статичны и поэтому проблемы с размытием во время движения не критичны. Для проверки этого сценария я решил сделать тест в двух схемах освещения, наиболее часто используемых в интервью: в тёмном и светлом ключе.

Здесь результат тоже получился неоднозначный. При хорошем свете «Киноэффект» отрабатывает неплохо, но всё же нестабильно: иногда кадр смотрится очень хорошо, а иногда появляется неестественный переход из фокуса в расфокус. Кроме того, мелкие детали вроде очков или отдельных элементов причёски иногда размыливаются.

Что интересно, при съёмке интервью лучше всего в режиме «Киноэффект» работал телефото-объектив, а не основной модуль.

Снять в этом режиме интервью в тёмном ключе вовсе не удалось — «Киноэффект» сообщил, что ему мало света и вовсе отказался включаться.

Подытоживая, отмечу, что на данный момент новый режим — это скорее доказательство работоспособности концепта, чем готовая функция. Но я уверен, что через несколько поколений эта технология перевернёт индустрию видеопродакшена. Уже даже циркулируют слухи, что над подобной технологией работают в Sony.

В будущем хотелось бы более стабильной работы «Киноэффекта», возможности снимать в нём во всех разрешениях и фреймрейтах, а также комбинации с кодеком ProRes. Не хватило также возможности менять и анимировать фокус в продуктах Adobe или DaVinci Resolve, а не только внутри iOS. Ещё интересным развитием может стать имитация размытия известных кинолинз, в том числе винтажных и анаморфотных.

Как себя показал ProRes

Как ни крути, а ProRes — это стандарт индустрии. В этом кодеке снимают кинокамеры от Blackmagic до Arri. Но даже футаж с тех камер, которые в нём нативно не снимают, нередко в процессе постпродакшена конвертируют в ProRes.

У кодека несколько вариаций, iPhone 13 Pro Max в стандартном приложении камеры снимает в ProRes HQ 422 (но в том же Filmic Pro можно выбрать другие параметры) — 10-битный кодек с максимальной субдискретизацией 4:2:2, который позволяет сохранить большую часть той информации, которую способен запечатлеть сенсор. У нашего футажа битрейт получился в среднем около 550 Мбит/с.

Ещё пара плюсов ProRes: во-первых, это All-I кодек, то есть он сжимает каждый кадр отдельно, не используя межкадровую компрессию, во-вторых, он требует гораздо меньше ресурсов компьютера для воспроизведения и монтажа, чем H.265 и даже H.264.

Однако при таком подходе файлы получаются просто гигантскими — одна минута видео в 4K весит около 6 ГБ. Неудивительно, что Apple ограничила 128-гигабайтные модели съёмкой ProRes только в 1080p. Отсюда же следует другой нюанс — времени на копирование таких роликов на компьютер требуется немало. 50 ГБ футажа через Lightning копировались около 20 минут.

При этом визуально видео почти не отличается от H.265, но это пока не начинаешь заниматься цветокоррекцией. ProRes гораздо легче поддаётся манипуляциям с цветом и гораздо дальше «тянется», что видно по ролику Crystallize. Те сцены, что были сняты в ProRes, гораздо лучше восприняли «покраску», чем сцены с «Киноэффектом». На них при внимательном рассмотрении можно заметить бэндинг.

По итогу могу заявить, что наличие ProRes в iPhone 13 Pro Max вполне себя оправдывает — это удобный и надёжный профессиональный инструмент. И сейчас мне кажется странным, почему этот кодек не был имплементирован ранее, учитывая, что он разработан самой Apple. При этом в будущем хотелось бы развития функции: выбора разных вариаций кодека, съёмки в 60 к/с и, как я уже отметил ранее, комбинации с «Киноэффектом».

Как себя показал MacBook Pro 16” на базе M1 Pro

К нам на тест приехала средняя конфигурация MacBook Pro с дисплеем 16”. Это 10-ядерный процессор M1 Pro с 16-ядерной графикой, 32 ГБ ОЗУ и SSD на 1 ТБ. Стоимость такой конфигурации на российском сайте Apple — 295 тысяч рублей, что на 60 тысяч рублей дороже «базы», которая поставляется с 16 ГБ ОЗУ и SSD на 512 ГБ.

Начну с общих впечатлений. Экран кажется очень ярким, при этом он чуть холоднее, чем в моём MacBook Pro 15” 2019 года. «Чёлка» совершенно не раздражает, а вот Touch Bar мне не хватает — им было очень удобно «скрабить» таймлайн в Adobe Premiere.

С точки зрения дизайна новые MacBook Pro мне показались даунгрейдом — по форме и габаритам они действительно больше похожи на модели, выходившие до 2016 года. Но с этим легко смириться, на деле осознав то, какую мощь Apple и автономность удалось уместить в таком корпусе, пусть и не столь компактном, как ранее.

Обработав одну из фотосессий в Adobe Lightroom Classic, я заметил, что он совершенно не нагрелся, находясь на коленях, как это делает мой MacBook Pro 15” (2019). Более того, благодаря наличию кардридера удалось импортировать все фотографии без переходников — ура!

Ещё один любопытный момент — MacBook Pro 15” (2019) и моему стационарному iMac Pro требуется от 30 секунд до нескольких минут, чтобы внешние жёсткие диски и SSD появились на рабочем столе, в том время как на новом MacBook Pro это происходит мгновенно.

Удивительно, но факт: батареи в новинке хватает на 5-6 часов активного монтажа, в то время как MacBook Pro 15” (2019) при аналогичной нагрузке «просит» розетку уже спустя 1,5-2 часа.

В профессиональном софте я сравнил MacBook Pro 16” с iMac Pro (2017) в следующей конфигурации: 8-ядерный Intel Xeon W (3,2 ГГц), 32 ГБ ОЗУ и графика Radeon Pro Vega 56 8 ГБ.

Монтировать видео в Adobe Premiere Pro (с нативной поддержкой процессоров Apple) очень комфортно — интерфейс работает без тормозов. При тесте 5K- и 4K-футажа (H.265 футаж с GoPro Hero 9 и H.264 футаж с Sony A7III соответственно) скраббинг таймлайна очень плавный, я бы даже сказал, что чуть-чуть плавнее, чем на iMac Pro, и нужный кадр подгружается мгновенно, заметно быстрее чем на iMac Pro.

При воспроизведении ни там, ни там не наблюдалось потери кадров. Когда я попробовал 8K (футаж REDCODE RAW с RED HELIUM со сжатием 8:1) всё изменилось: оба компьютера не смогли воспроизвести его без потери кадров, однако iMac Pro быстрее подгружал нужные кадры при скраббинге. Но после добавления цветокоррекции первенство вернулось к MacBook Pro — его поведение не изменилось, а вот iMac Pro стал работать с футажом заметно медленнее и терять больше кадров при воспроизведении.

В DaVinci Resolve 4K- и 5K-футаж одинаково хорошо воспроизводились и скраббились. С 8K-футажом от RED DaVinci справился лучше, чем Adobe Premiere Pro и на одном, и на другом компьютере. И там, и там потери кадров не наблюдалось. Но стоило начать делать цветокоррекцию, как сразу выявился лидер. Если на MacBook Pro обновления на экране с применённой коррекций отображались моментально, то на iMac Pro же уходило несколько секунд на то, чтобы компьютер отрендерил превью с изменениями.

При монтаже Crystallize я одновременно положил в Multicam-секвенцию в Adobe Premiere Pro 16 дублей, 12 из которых были 4K ProRes HQ 244 и ещё 4 в 1080p H.264 с «Киноэффектом». И ни один из компьютеров не смог воспроизвести 16 потоков в Adobe Premiere Pro. Вскоре после начала воспроизведения MacBook Pro выдал ошибку, что у него закончилась память, и предложил закрыть программу. Пришлось отказаться от идеи монтажа «мультикамом» и заниматься этим более традиционным способом.

Экспорт Crystallize из Adobe Premiere Pro (без цветокоррекции, так как она была сделана после в DaVinci Resolve) в H.264 на MacBook Pro занял 67 секунд, а на iMac Pro — 57 секунд. В H.265 — 72 и 50 секунд соответственно. Для относительно компактного ноутбука в сравнении с профессиональным десктопом результаты удивительные.

Но что меня удивило ещё больше — это работа в Adobe After Effects. Сразу поясню: на данный момент официальный релиз AE работает только через эмулятор Rosetta 2, а поддержка процессоров Apple есть только в бета-версии, в которой пока не работают многие важные функции программы.

Начать я решил с релизной версии под Rosetta 2: нашёл один из своих «тяжёлых» проектов и открыл его на новом MacBook Pro.

Результат крайне удивил — ноутбук воспроизводил сложные секвенции в среднем на несколько фреймов быстрее, чем это мог делать iMac Pro. И это всё через Rosetta 2!

Экспорт одной из таких секвенций длиной в 20 секунд в ProRes HQ 422 на MacBook Pro занял 28 секунд, а на iMac Pro 26 секунд.

Затем мне стало ещё любопытнее: я скачал нативную «бетку» AE и открыл в ней проект — он загрузился мгновенно, хотя в релизе через Rosetta 2 и на iMac Pro это занимало около минуты. К сожалению, плейбек в реальном времени не случился — тут он был сопоставим с релизом под Rosetta 2, но экспорт той же секвенции занял всего 15 секунд.

Из этого всего я делаю только один вывод: то, что Apple сделала со своими чипами, просто невероятно!

Данная страница содержит «вставки» с других сайтов, скрипты которых могут собирать ваши личные данные для аналитики и своих внутренних потребностей. Редакция рекомендует использовать браузеры с блокировкой трекеров для просмотра таких страниц. Подробнее →
15 декабря, 2021
Подписывайтесь на [Код // Дурова] в Telegram. У нас уже 190 000 подписчиков[Код // Дурова] в Telegram
Комментарии