Григорий Арзамасцев, Grass Valley: Оптимизация удалённого производства

Григорий Арзамасцев, пресейл-инженер московского подразделения Grass Valley

 

Выступление Григория Арзамасцева, пресейл-инженера московского подразделения Grass Valley с докладом «Оптимизация удалённого производства» на Online круглом столе «Broadcasting 2021 Qazaqstan. Технологический комплекс «УК Казмедиа Орталығы» 20 апреля 2021 года.

Опубликовано в ТКТ № 06 (734) 2021.

Григорий Арзамасцев: Я хотел бы начать презентацию с прошлого, с того, каким образом исторически развивалась система передачи сигналов между камерой и базовой станцией, и вообще с первых шагов удалённого производства. Как мы знаем, случилось это в 60-х годах с появлением мультикора, когда камеру удалось отнести от ПТС, студии или аппаратной на достаточно длинное расстояние порядка нескольких десятков километров. В дальнейшем вся эта система эволюционировала, и на сегодня мы имеем систему передачи по триаксу или по гибридному оптическому волокну, где наша камера может стоять от базовой станции даже на несколько десятков километров. Естественно, Grass Valley, Philips, Thomson и другие компании, которые входят в компанию Grass Valley, развивали эти технологии в течение всего этого времени.

 

В данный момент самая прогрессивная технология– это IP. Мы все сейчас готовимся к переходу на этот стандарт. Как производители мы должны сделать некую технологическую базу и сделать этот формат удобным для вещателей, чтобы этот переход состоялся и был экономически целесообразным. Если говорить конкретно о камерах, то именно камеры – это то устройство, которое определяет технологию, в том числе удаленного производства. На сегодняшний день камерная система состоит из собственно камеры и базовой станции – устройства, которое фиксирует сигнал и к которому мы подключаем потребителей сигнала. Эти две вещи разнесены в пространстве. Базовая станция, которая у нас существует, — это XCU. Здесь уже сделан большой шаг для производства, для упрощения, для технологичности. XCU позволяет разделить саму базовую станцию и блок с разъемами на две части. Эти две части можно независимо перемещать. Если базовую станцию необходимо переместить из одной студии или одной аппаратной в другую аппаратную, все разъемы можно оставить подключенными. Это очень удобно. Помимо традиционной XCU, на которой присутствуют разъемы SDI, следующий шаг, который ми сделали – это XCUIP или XCUUXF. На этой базовой станции присутствуют все традиционные аналоговые разъемы, в частности SDI, аналоговая синхронизация. Также дополнительно добавлены возможности подключения по IP. Данная база позволяет использовать сети распространения несжатого видеосигнала по стандартам 2022-6 или 2110, подключить интерком по IP. Переход на IP может происходить в темпе, нужном для заказчика, для вас и для вашей технологии. Например, вы можете передавать видеосигналы в программные камеры по 2110, но при этом использовать аналоговый интерком, уже имеющийся. Таким образом, каждый из сигналов может независимо использоваться как в формате IP, так и в формате SDI. Но вы можете заметить, что в данном случае камера все еще подключена напрямую к базовой станции. Существует соответствие 1 к 1: одна камера – одна базовая станция. Следующий шаг, который мы сделали в этом направлении, – мы разработали систему XFFiber. Это система передачи между камерой и базовой станцией, в которой по гибридному оптическому волокну передается IP-сигнал. То есть не только базовая станция может подключаться к потребителям по IP, но и между камерой и базовой станцией тоже переходит передача сигналов по IP. При этом линк 10 Гбит/с. Интересный факт: когда мы впервые разработали такую систему передачи, мы никому не сказали, что это IP, потому что телевизионный рынок в то время не доверял IP-технологиям. Если бы мы сказали, что внутри гибридной оптики IP-сигнал, многие из наших потребителей испугались бы этого решения. Поэтому мы использовали эту технологию, но никому об этом не говорили. Дальнейший шаг, очевидный в этой связи, если у нас между камерой и базовой станцией уже IP, – поставить коммутатор между камерой и базовой станцией. Этот коммутатор позволит решить несколько задач. Первая задача — это коммутировать несколько наборов камер на один набор базовой станции. Одна аппаратная может обслуживать несколько студий и таким образом увеличить время использования оборудования и эффективность использования оборудования. У нас есть такие решения, они отлично работают, хорошо себя зарекомендовали. Некоторые наши заказчики использую эту технологию уже в течение 10 лет. Эта технология успешна, в 2019 году мы совместно с КМО проводили тест на передачу несжатого полного сигнала между Токио и Лондоном (по подводным кабелям общее расстояние было 19 тысяч километров) с десятикратным сжатием с помощью JPEG 2000 и с задержкой порядка 400 миллисекунд; предавали сигнал с нескольких камер одновременно на большие расстояния по сетям Internet. Очевидное преимущество этого решения – гораздо меньшая потребность в ширине полосы пропускания и, соответственно, меньшая стоимость канала связи между камерой и базовой станцией. На первом этапе тестов камеры были установлены на Барыс-Арене, а базовая станция и панель управления в виде микшера располагались в одной из аппаратных «Казмедиацентра». Все это, естественно, в рамках Астаны.

REC – это все то оборудование, которое было необходимо на стадионе вместо большого ПТС. Дальше все подключалось к телеком-провайдеру, который давал 300 Мбит/с, мы передавали два сигнала из арены до медиацентра и видели сигнал в полном качестве с отличной задержкой порядка нескольких кадров в секунду. То есть мы полностью протестировали удаленное производство на общественно-доступных сетях, с доступной стоимостью аренды каналов.

Вторым этапом данных тестов стал перевоз камер в Алма-Ату и проверка аналогичной передачи между Астаной и Алма-Атой. Все тесты также прошли очень успешно, задержка не превышала восемь кадров, притом, что все сигналы задерживаются одновременно на одинаковое количество кадров. Фактически никаких препятствий, чтобы делать удаленное производство, не существует. Но мы не останавливаемся на достигнутом. Ровно год назад мы выпустили новую камеру LDX100. Эта камера принципиально отличается от всего, что мы производили раньше и что производят все наши соперники. Прежде всего, она программно-определяемая. Эта камера с аппаратной точки зрения, с точки зрения матрицы, обработки сигнала может работать до UHD с трёхкратной скоростью. Весь основной функционал определяется программной лицензией, которая может быть встроена на камеру. Это текстовый файл, который определяет, может ли камера работать в режиме просто UHD или UHD Super Slow Motion, поддерживает ли она технологию Native IP, о которой чуть позже, или она работает совместно с базовой станцией. Это наш флагман, мы продолжаем его развивать. Одна из самых главных особенностей этой камеры – это Native IP. Если мы вспомним, что между камерой и базовой станцией у нас IP и дальше на выходе базовой станции тоже IP, то возникает вопрос: зачем вообще нужна базовая станция? По большому счету, базовая станция в такой конфигурации – это просто некий преобразователь старых форматов сигналов, например, аналоговой синхронизации или аналогового интеркома. Это преобразователь таких типов сигналов в сигналы IP. В производстве будущего эти сигналы не нужны, и сама камера может становиться IP-устройством. Камера может получать на себя сигналы PTP для синхронизации и передавать сигналы 2110-20 и 2110-30, то есть видео и звук. Она поддерживает управление по протоколам NMOS-07. То есть сама камера становится активным игроком в IP-экосистеме. Но стоит отметить, что для подключения одной камеры нам необходимо использовать 100-гигабитные SFP-разъемы и 100-гигабитные линии связи, и это опять становится очень дорого. Это реализуемо в рамках студии или телецентра, но нереализуемо для удаленного производства. При этом в самой камере предусмотрена возможность легко заменить SFP-разъемы, установить те разъемы, которые требуются для данного производства.

 

Но что же делать с удаленным производством? Среди Native IP мы сталкиваемся с той же сложностью, что и среди DirectIP. Нам необходимы очень большие линии связи с большой шириной канала, и это очень дорого. Поэтому мы делаем следующий шаг вперед. Мы внедряем в нашу платформу внутрь камеры возможность компрессии JPEG XS. Это значит, что сама камера может быть подключена по IP к среде передачи, и внутри камеры существует достаточная мощность, достаточная производительность для того, чтобы делать компрессию JPEG XS (основного видеосигнала) и декомпрессию, например, обратных ретурнов с настраиваемой степенью компрессии. Многие заказчики тестируют сейчас эту технологию, ищут, где находится оптимальное сочетание компрессии и качества сигнала. На сегодняшний день это порядка 10:1. Для сигнала 1.5 Гбит/с это компрессия до 150 Гбит/с. При этом JPEG XS – это компрессия с очень малым уровнем задержки, около 15 строк. С сегодняшней IP-парадигмой, когда вся коммутация происходит несинхронно внутри комплекса и на выходе комплекса происходит синхронизация по кадру, вся коммутация, то есть компрессия и декомпрессия, происходит в рамках одного кадра. Когда мы по выходу комплекса фиксируем все на следующей границе кадра, вся наша коммутация и все распространение происходит внутри этой границы. Ни к какой дополнительной задержке данная компрессия не приводит. Эта функция будет доступна в наших камерах начиная с июня, то есть официальный релиз и первые поставки будут в июне. Сейчас уже производятся тесты с различными нашими заказчиками. Она будет доступна для всех камер LDX как просто программная опция. Когда мы говорим, что это программно-определяемая камера, имеем в виду, что будет лицензия, которой можно оснастить любую камеру, превратив любую LDX 100 в камеру, которая может работать с удаленным производством с компрессией. Так как Grass Valley производит весь рабочий процесс от объектива до монитора, совместно с этим решением мы выпускаем два дополнительных решения. Во-первых, это новое программное ядро для платы XIP-3901, о нем чуть позже, которое позволит делать на модульном продукте кодирование и декодирование JPEG XS. Также мы добавим поддержку JPEG XS в наш преобразователь для мультимониторных экранов IPVU. По сути дела, это преобразователь из IP-стандартов в HDMI, и IPVU позволит на удаленном производстве передать компрессированный сигнал полиэкрана и дальше развернуть его на мозаику, и, если это необходимо, в удаленной точке или в удаленной студии отобразить ее на экранах, где мультискрины. Таким образом, наши камеры позволяют реализовать решения для удаленного производства или IP-подключения камер в рамках одного комплекса со всеми моделями камер, с компрессией или без компрессии, с поддержкой внешних энкодеров или своими собственными средствами, делая все камерное решение по-настоящему IP без привязки к любым технологиям на взаимодействии устройств «точка-точка». Схема такого решения будет полностью на IP. Если производственный процесс к этому готов, то все, что нужно для производства – это пара IP-коммутаторов, инжектор питания и панель управления, которая также включается в единую сеть передачи и управления.

Пара слов о новом варианте ядра для XIP-3901. Как вы знаете, сегодняшние технологии позволяют реализовывать программные функции на модуль. Сам по себе модуль является некой утяжелительной мощностью, а функция его определяется лицензией, которую на него устанавливают. Эти лицензии мы называем ядрами. Это некий набор программного обеспечения, который позволяет на этом модуле реализовывать определенные функции. Нашим флагманом в данный момент является модуль XIP-3901 для модульных корзин Densite. Новое ядро позволяет кодировать и декодировать JPEG 2000. И в рамках модуля мы можем получить до 8 энкодеров, если мы работаем в HD. Так как это JPEG XS, так как это все работает в пределах одного кадра, то логика работы декодера такова, что мы декодируем сигнал 2110, и при этом нужно заметить, что это все равно стандарт 2110. Набор стандарта 2110 в том числе подразумевает передачу компрессированного видео, это входит в подстандарт 2110-22. JPEG XS-кодек принят в индустрии, он стандартизован в достаточной мере, чтобы оборудование третьих производителей тоже могло получать наш сигнал и декодировать его. У нас уже есть опыт успешного использования с оборудованием третьих производителей. Тем не менее, XIP-3901 может получить данный сигнал, декодировать JPEG XS, после этого либо выровнять сигнал по PTP по следующему кадру, по времени начала следующего кадра, либо работать с минимальной задержкой, таким образом получив задержку на мультикодирование от 15 строк сигнала. Таким образом, мы позволяем полностью решить задачу с использованием только нашего оборудования, задачу удаленного производства с использованием узких сетей, сетей с невысокой пропускной способностью.

 

Денис Выходцев, генеральный директор VTV Broadcast & Production (Казахстан): Можно я задам вопрос по поводу теста? Каким образом вы замерили задержку в восемь кадров? Как вы ее получили? Делали вы тест на то, разбегается ли задержка между камерами или она всегда одинаковая? Например, ПТС мы включаем в девять утра, а матч начинается в девять вечера. К девяти вечера все камеры приплывут синхронно или разбегутся по секундам или по кадрам? Еще один вопрос: есть ли какой-то тест с шестнадцатью камерами? Двумя камерами футбол и хоккей не покажешь, нужно, чтобы их было побольше.

Григорий Арзамасцев: Ответ на первый вопрос следующий: мы не проводили очень строгие замеры с точки зрения задержки. Все, что мы делали, это измеряли задержку прохождения звука, который не компрессировался, относительно задержки видео. Решение позволяет компенсировать разницу в задержке видео и звука. Так как энкодер знает, насколько он задерживает видеосигнал. Он может задержать аудиосигнал на такое же время, тогда мы в получаемом сигнале не видим расхождения видео и звука. Эту функцию можно отключить, и тогда звук проходит по траектории минимальной задержки. Мы в этом случае можем замерить дополнительную задержку, которую дает кодирование/декодирование. В этом случае мы можем просто записать видеосигнал, замерить разницу классически – по хлопушке.

Второй тест, который мы делали, рассчитан более на органы чувств и осязания. Если мы управляем камерой, например, включаем цветные полосы на камере, мы нажимаем кнопку на панели управления, сигнал идет до камеры, на камере включаются цветные полосы и возвращаются к нам. Мы можем записать момент нажатия кнопки и записать момент смены сигнала на видеомониторе. Здесь мы попадаем где-то в пределах половины секунды. Таким образом, мы примерно замеряли задержки, которые видели. Никаких строгих тестов с какими-нибудь атомными часами мы не делали. Следует понимать, что большая доля этой задержки связана с тем, что сама передача может работать на сетях с негарантированной доставкой пакетов, когда система добавляет избыточность в передаваемый сигнал с тем, чтобы потом можно было восстановить сигнал с использованием избыточности, если какие-то пакеты выпадут. Эта избыточность даёт задержку. Ее нужно тем больше, чем менее гарантирована доставка сигнала. Чем хуже все эти передачи, тем больше будет задержка. Мы видели меньшую задержку в случае работы внутри Астаны и большую задержку при передаче от Астаны до Алма-Аты.

Ответ на второй вопрос: нет, камеры не разбегаются, потому что данное решение предполагает синхронизацию. Мы доставляем сигнал синхронизации в виде обратного сигнала по траектории от базовых станций, то есть от медиацентра, до камер. Соответственно, все камеры синхронизированы от одного опорного сигнала в студии. Камеры не разбегаются и работают синхронно. Они синхронизированы на уровне матрицы так же, как это делается в студии. Соответственно, они не разбегаются по времени. Преимущество такого комплексного решения в том, что сигналы всех камер агрегируются на стороне передачи в отличие от систем, которые используются, например, в ТЖК-комплексах, где передачи по сетям гарантированы с помощью рюкзаков, и LTE-сетей, эти системы передачи рассчитаны на передачу каждого сигнала по отдельности. Если у вас снимают три камеры, все три камеры будут тремя независимыми маршрутами через Internet доставлять три независимых потока, которые будут идти с независимыми задержками. Соответственно, на приеме вы будете получать любое расхождение этих камер относительно друг друга за счет того, что сети не объединены. Если же это работает через систему Nimbra, они агрегируют пакеты, доставляемые всеми тремя камерами, синхронизовано их передают в сеть и синхронизовано их получают, то есть синхронизуют их на приеме и синхронизовано отдают обратно в виде не компрессированного сигнала. Если вы применяете решение, например, JPEGXS в камерах LDX 100, то вам каким-то образом необходимо будет организовать передачу этих сигналов и гарантированную доставку через Internet.

Ринат Муксинов, заместитель генерального директора, технический директор ТОО «УК Казмедиа Орталығы»: Я бы еще хотел добавить. Мы планировали провести полноценный тест как минимум с восемью камерами, но случилась пандемия. Как только появится возможность, мы обязательно его проведем и постараемся пригласить как можно больше людей для того, чтобы все увидели и убедились в этом. Спасибо, Григорий.