Александр Дарчия, начальник службы IT Georgia Public Broadcasting, выступил с докладом на Online круглом столе «Broadcasting 2021 Georgia Технологический комплекс Общественного телевидения Грузии» 2 ноября 2021 года.
Александр Дарчия: Я вкратце представлю наш проект. На данный момент мы находимся на стадии перехода от старой системы к новой. Практически все рабочие механизмы запущены, техника работает исправно, осталось реализовать несколько идей, и мы перейдем на новые рельсы. Система долго планировалась и тщательно продумывалась. В этом нам помогали компания-интегратор и сам производитель Avid.
Система представляет собой новую платформу CloudUX, а также Avid iNews. В Avidi News в основном работают продюсеры и делают рандауны, а в CloudUX – журналисты, продюсеры и другие участники ньюсрума, начиная с файлового инжеста и заканчивая ведущими.
Что касается монтажной системы, у нас 15 монтажных станций, на которых работает Avid Media Composer; для художественных помещений Symphony Option.
Конечно, мы работаем с РАМ и МАМ-системами.
В качестве плей-аут серверов впервые в нашем регионе мы используем Avid Fastserve 8 ch как на инжесте, так и на плей-ауте. Мы одновременно можем писать восемь каналов и выдавать в эфир 16 каналов при необходимости. На данный момент для плейаута мы используем по два сервера, остальные находятся в резерве. Для контроля этих серверов у нас созданы два рабочих места для работы с iNews Command, который полностью интегрирован с InterPay. Это очень эффективно, выдача материала в эфир происходит очень просто.
Наш сторидж – это Nexus 5, в котором около 800 терабайт для наших материалов. Это очень производительный сторидж.
Вся система физических серверов Avid у нас в основном на виртуальной базе. Все сервисы, которые можно было вывести в виртуалку, мы подняли. Для этого мы использовали сервера Fujitsu. У нас построен кластер из 5 нодов, где 200 физических ядер и RAM 1280 ГБ. Этого полностью хватает для работы всех сервисов, кроме этого предусмотрен приличный резерв. Сторидж для виртуальных машин тоже от Fujitsu, это примерно 30 ТБ быстрых дисков. Эта система очень хорошо себя показала.
Network у нас полностью дублирован, мы используем как Core-свитчи, так и Access-свитчи. На Access-свитчах 10-гигабитные подключения: монтажные и юзер-ПК, которые обслуживают систему. На этих 10-гигабитных свитчах продублирована вся серверная инфраструктура. У нас сдвоенная система, и в случае, если один свитч упадет, то система будет продолжать работать. На Access-свитчах работает половина наших монтажных, а другая часть на Core-свитчах. Например, один специалист, работающий на iNews Command и управляющий эфиром, сидит на одном свитче, другой – на другом. Все сделано так, чтобы, если вдруг из системы что-то уйдёт, она оставалась в рабочем состоянии и могла продолжать работать без каких-то коллизий. Все большие сториджи подключены к системе на 40 Гб, остальные сервера по 10 Гб, а мультивьюверы по гигабитной сети.
То же самое касается и плейаут серверов. Повторюсь, их два, и они работают в режиме Mirror. Если один упадет, второй продолжит работать.
Все виртуальные серверы у нас также продублированы. У нас по два сервера, и все сервисы работают в активном режиме. Если одна виртуальная машина выйдет из строя, то вторая всегда на подхвате. У нас для этого закуплены по две лицензии.
Мы старались, чтобы наша система была практически неуязвима, чтобы это была монолитная система, и, по-моему, у нас это получилось.
У нас есть 15 монтажных, как я уже говорил, и примерно 200 юзеров: журналистов, продюсеров, ведущих и других специалистов.
Мы имеем 75 флот-лицензий для централа, то есть одновременно к системе могут подключаться и работать 75 человек. В CloudUX они могут делать поиск, монтаж, отправлять монтированный материал внутри монтажных систем сразу в эфир, а также могут выдавать его с CloudUX в разные соцсетии на youtube. Все это закуплено по лицензиям, и наша система полностью отвечает пожеланиям нашего web-отдела.
Повторюсь, мы понемногу переходим со старой системы на новую, делаем интенсивный прогон, выявляем недочеты и приводим систему в полный порядок. Совсем скоро планируем выйти в эфир.
Конечно, в дальнейшем мы будем совершенствовать свою систему, что-то добавлять, смотреть, что и как надо подправить.
Следующий этап – это архивная система, которая будет реализована, скорее всего, в следующем году. Пока мы будем использовать наши 800 ТБ, а потом начнется миграция нашей библиотеки видеоматериалов, которые сейчас у нас на разных носителях.
Андрей Мамонтов, руководитель комплекса технологического обеспечения ТВ и радиопрограмм технического департамента ЗАО «Русская Медиагруппа»: Используются ли у вас транскодеры и на чем? Это транскодеры Avid или сторонние?
Александр Дарчия: Все сервисы, которые у нас работают, – это Avid. На данном этапе у нас нет необходимости подключать каких-то других производителей.
Гоча Кумсиашвили, директор по производству и технической поддержке Общественного телевидения Грузии: По поводу транскодеров вопрос очень хороший. На самом деле на этом этапе они, конечно, важны, они всегда важны, но самая большая нагрузка на транскодеры наступит в тот момент, когда мы будем производить миграцию нашего старого архива в новую систему. Это неизбежно произойдёт в следующие годы. Так как сейчас у нас непосредственно архивной системы HSM и сториджей под нее нет, то транскодирование происходит разрозненно, и его могут производить монтажные станции или службы Avid. Но следующий проект – миграция данных с одной базы в другую, во-первых, метаданных, во-вторых, миграция видеоматериалов. Это очень важная задача, потому что материал находится на разных носителях, в разных форматах. В тот момент, конечно, возникнет проблема с тем, чем транскодировать. Занимать полностью то, что сейчас имеется, может быть, не удастся, потому что транскодеры будут заняты под конкретные рабочие процессы, так что нужно будет что-то добавлять. Здесь нам пригодятся советы, чем транскодировать, как транскодировать и так далее.
Александр Дарчия: Что касается таких больших объемов транскодинга при миграции, мы планируем делать это в нерабочее время, чтобы это не мешало и не замедляло текущие процессы. Но я могу сказать, что по части железа у нас большой ресурс. Если мы увидим, что у нас не хватает мощности, то легко подправим эти ресурсы, при необходимости добавим лицензии. Пять нодов, о которых я говорил, сейчас не загружены практически на половину. Наша система очень гибкая, и в любой момент, даже если нам не будет хватать пяти нодов, мы легко сможем ее расширить. Мы очень много времени потратили, чтобы изначально построить такую систему, чтобы с ней было проще работать в плане ее осуществления. Компоненты системы были первым номером среди наших приоритетов.
Гоча Кумсиашвили: На стадии обсуждения проекта нам пришлось рассмотреть много разных конкурентных решений, и нам повезло, что все так сложилось с Avid. В случае с Avid мы сошлись на том, что практически все серверы у нас виртуальные, а железо – пять нодов – это пять серьезных серверов, где довольно большое CPU и много памяти, а также большой хэдрум, то есть мы можем запускать и другие параллельные процессы при необходимости, так как запас есть. Это хороший подход, и сейчас уже мы поняли, что он реально лучше того, что бы было без виртуализации.
Также очень много мы работали со свитчами. Оказывается, Dell, который мы выбрали, — это хорошее решение, очень производительные свитчи, а главное – сравнительно дешевые. Nexus тоже показывает такую высокую производительность, и мы используем его в параллельно в процессе декодирования эфирных материалов. Сейчас у нас используется Nexus, DVP, DX 200, и мы можем лавировать между ними.