Online круглый стол «Broadcasting 2020: Автоматизированный комплекс HD «ТВ Центра» состоялся 7 июля 2020 года. Статья опубликована в TKT 08 (724) 2020. Трансляция https://tkt1957.com/ru/broadcasting-2020-tvs_07_07_2020/
Доклады и докладчики
“Многоканальный вещательный комплекс формата высокой четкости (АВК HD)”. Алексей Брусницкий, директор технической дирекции АО «ТВ Центр»; Сергей Шапкин, главный технолог технической дирекции АО “ТВ Центр”.
“Воплощение идей. Особенности проекта”. Иван Ситников, руководитель системного отдела Vidau Systems.
“Новые продукты и решения Riedel”. Алла Матвеенко, генеральный директор Riedel в России, странах СНГ и Балтии; Ирина Кипяткова, менеджер по продажам и развитию бизнеса Riedel.
“Инфраструктура, процессинг и мониторинг от Grass Valley. От SDI до IP.” Александр Богаткин, директор по продажам Grass Valley в России и СНГ.
Андрей Коржевин, региональный менеджер по продажам оборудования для телевещания Harmonic в России, СНГ и Турции в Harmonic Inc.
Михаил Ротко, директор по развитию Vidau Systems.
Stuart Russell, Senior Communications Manager Ross Video.
Grand Jury
Тимур Кулгарин, модератор, технический директор «СТС Медиа».
Ернар Баймолдаев, технический директор телеканала «Астана» (Казахстан).
Алексей Вашурин, заместитель технического директора «Белтелерадиокомпании» (Беларусь).
Игорь Верновский, технический директор АО «Спутниковое телевидение».
Алексей Ганков, IT-директор «Киностудии «Союзмультфильм».
Сергей Ефимов, к.т.н., директор Региональной производственно-технической дирекции ВГТРК.
Артем Жилин, технический директор «Прямой» (Украина).
Ернур Касабеков, технический директор Агентства «Хабар» (Казахстан).
Денис Максимов, технический директор «Рен ТВ».
Андрей Мамонтов, руководитель комплекса технологического обеспечения ТВ и радиопрограмм технического департамента ЗАО “Русская Медиагруппа».
Владимир Рыбкин, технический директор «ЮТВ-Холдинга».
Искандар Салихов, начальник сектора развития цифровых технологий Национальной телерадиокомпании Узбекистана (Узбекистан).
Сергей Сторожев, исполнительный директор «Витрины ТВ».
Григорий Урьев, директор по теле- и радиовещанию корпоративного центра «Ростелекома».
Владимир Широков, генеральный директор «Старта».
Тимур Кулгарин, модератор, технический директор «СТС Медиа»: Уважаемые коллеги, добрый день! Я очень рад всех приветствовать на очередном заседании нашего «распределенного» виртуального круглого стола, посвященного интересным техническим вопросам современного телевидения. И в фокусе нашего сегодняшнего мероприятия – большой, можно сказать, один из самых больших проектов прошлого года, связанный с построением телевизионных эфирных комплексов в Москве. Это вещательный комплекс телеканала «ТВЦ».
Наш генеральный партнер – Vidau Systems, известный системный интегратор на рынке телевидения, видео- и медиаприложений. А также компании: Riedel, Grass Valley и Haivision. Я рад приветствовать наших зрителей, которые смотрят нас сейчас, надеюсь, во всех социальных сетях, а также наше большое жюри и всех гостей круглого стола, и хочу сказать, что сегодня мы ожидаем услышать, во-первых, конечно же, наших коллег с «ТВ Центра»: Алексея Брусницкого, технического директора, и Сергея Шапкина, главного технолога, также представителей компании Vidau Systems – Ивана Ситникова, руководителя системного отдела, и Дмитрия Хлопцева, системного инженера-разработчика. И еще надеемся услышать новости от Harmonic, в лице Андрея Коржевина, от компании Ross Video, которую представит наш зарубежный коллега Стюарт Рассел.
Отдельные выступления подготовили Riedel – Алла Матвеенко и Ирина Кипяткова, а также Александр Богаткин из Grass Valley. Также мы надеемся, что в числе докладчиков выступит HPE, но пока что это интрига, кто именно. Итак, какие интересные фишки этого проекта можно отметить? Я считаю, что в нем применена достаточно редкая и очень интересная система автоматизации компании Pebble Beach, а также мне лично очень интересна система мониторинга, которую я до этого, наверное, вживую еще нигде не видел.
Какие интересные фишки этого проекта можно отметить? Я считаю, что в нем применена достаточно редкая и очень интересная система автоматизации компании Pebble Beach, а также мне лично очень интересна система мониторинга, которую я до этого, наверное, вживую еще нигде не видел.
Но об этом позже. Хотел бы передать слово Алексею Брусницкому, а он дальше его коллеги расскажут об истории проекта, о самом интересном.
Алексей Брусницкий: Добрый день, коллеги, все зрители, которые нас смотрят! Я, наверное, приступлю к демонстрации, расскажу немножко об истории комплекса: как это затевалось, что делалось, какие были требования. Переключаюсь на демонстрацию. Ну, собственно говоря, проект называется «Многоканальный вещательный комплекс формата высокой четкости (АВК HD)». Дальше небольшая историческая справка.
Вообще говоря, концепция перехода на HD всего канала была сформулирована в 2013 году. А в 2014 мы сделали технико-экономическое обоснование, которое и позволило запустить всю большую программу перехода на HD. В 2015 году, наконец-то был дан старт всей программе. В 2016 произошло согласование конкурсных процедур, в 2017 – реализация проекта АСБ-3, и это явилось очень важным этапом перед тем, чтобы подойти к вещательному комплексу.
В 2018 выполнялись проектирование, строительство, инженерные работы и создание самого ABK. С 2019 по январь 2020 гг. – тестовая эксплуатация, интеграция с системой планирования, МАМ-системой и старт вещательного комплекса, эфир из вещательного комплекса был запущен 15 января 2020 года. Теперь чуть-чуть о проблемах, которые нас преследовали. Их было три.
Первое – это большое количество заинтересованных лиц и огромный реестр исходных требований. Если брать сам документ, то это десятистраничный документ, исписанный восьмым шрифтом, по количеству требований. Сложная процедура согласования – это госзакупки, трехуровневое согласование. Ну и самая большая проблема – отсутствие помещения, как такового, где предполагалось разворачивать этот вещательный комплекс.
Как решали проблемы? На первом этапе было принято решение модернизировать третью студию, а у нас их было всего четыре: две работают на программу «События», а третья и четвертая – на остальные информационные программы. Мы решили оставить одну – только третью, модернизировать ее, сделать из нее просто классную виртуальную студию, а четвертую студию освободить под вещательный комплекс. Сказано – сделано.
И в 2017 году, в партнерстве с компанией Vidau Systems, которая у нас была интегратором, по сути и был реализован этот проект, который победил в интернациональном конкурсе TKT Awards International в 2017 году. Из этой студии у нас сразу выходили три ключевые, значимые программы – «Постскриптум», «Город новостей» (ежедневно в эфире) и «Московская неделя» – завершающая, собственно говоря, обзор этих программ. Каждая со своим оформлением, со своими ведущими, со своими отличиями. А виртуальная студия позволила нам совместить все в одной студии. После этого мы перешли к проектированию.
Не освободив студию, мы не могли вообще посмотреть, а что же там за обшивкой скрывается. И практика показала, что пришлось вносить достаточно серьезные изменения в проект. Там, где мы рассчитывали на хорошие перекрытия, оказалось, они не очень хорошие – пришлось усиливать. Там, где должна была быть стенка, оказалась кирпичная кладка. В общем, пришлось все разобрать и собрать полностью с нуля. Ну, и вот результат, который мы получили где-то в середине 2018 года. Теперь я перейду к основным требованиям, которые, собственно говоря, определили всю архитектуру комплекса и техническое решение.
Первое основное требование – это одновременное формирование 8 программ с возможностью расширения до 12. Ключевой важный запрос – возможность проведения профилактик, восстановительных работ, любых апгрейдов, апдейтов без остановки вещательного комплекса и работа его в нескольких режимах: основной –режим 1+1, классический 100% резерв, и на режим профилактики мы должны были переходить на схему N+1, то есть 7 каналов плюс один резервный, без каких-либо подрывов. И обеспечить обновление программного обеспечения без остановки.
Другим ключевым требованием было, чтобы комплекс был рассчитан на прямые включения, на работу видеосервера в режиме задержки, Time Delay, в режиме вторичной записи с выводом в эфир: соответственно, нужно было реализовать возможность включения в прямой эфир наших студий, любых внешних, и при этом задержка должна быть минимальной – по факту, это должно быть не более, чем три кадра. Следующее ключевое требование – это оперативность контроля управления всеми каналами с любого рабочего места, что определяло высокую гибкость комплекса.
Одновременная выдача четырех статических или анимированных логотипов на каждом канале; создание и воспроизведение видеографических композиций высокой сложности: с микшированием, наложением, видеоэффектами, с дополнительными источниками в программе – это другие важнейшие требования. Наряду с ними, еще одним ключевым требованием было формирование и внедрение сигналов телетекстов, скрытых субтитров с врезкой в автоматическом режиме, а также для прямых трансляций. Ну и самое важное требование от наших технических специалистов: сеть управления всем оборудованием должна была быть выполнена по технологии Ethernet (без использования, скажем так, устаревших протоколов, хотя и добрых, RS442 и GPI) с автоматическим контролем состояния телевизионного тракта.
самое важное требование от наших технических специалистов: сеть управления всем оборудованием должна была быть выполнена по технологии Ethernet (без использования, скажем так, устаревших протоколов, хотя и добрых, RS442 и GPI) с автоматическим контролем состояния телевизионного тракта
Ну и какие же технологические компоненты вошли в сам комплекс? Первое – это система автоматизации Pebble Beach, которая на тот момент ни разу не использовалась в России. Хотя по миру она достаточно хорошо известна. Впоследствии компания «ТНТ» тоже выбрала эту платформу и фактически запускала параллельно с нами. Я даже много случаев знаю, когда на каналах заменяли известный нам ADC-100 на платформу Pebble Beach Marina.
Надо также отметить, что больше половины требований предъявлялось именно к системе автоматизации, поэтому выбор решения был определяющим. В рамках проекта были внедрены: серверная платформа Harmonic, система графического оформления эфира Ross Video, коммутационное и периферийное оборудование Grass Valley, система мониторинга Grass Valley.
Пожалуй, впервые использовалась на территории Российской Федерации система управления и мониторинга по SNMP AXON Cerebrum. Кроме того, были задействованы: звуковая обработка Linear Acoustic, система служебной связи Riedel (с которой мы давно дружим, по-моему, с 2010 года мы перешли на нее и рады до сих пор), система субтитрирования Screen Systems, измерительное оборудование – традиционно Tektronix, KVM-матрица Guntermann, IT-инфраструктура Cisco и HP Enterprise, контрольная запись Hopsteam и технологическая мебель TBC Consoles.
Вот как технически выглядит тракт одной из программ, которые у нас построены в этом комплексе. Используются два независимых плеча с возможностью передачи сигналов из одного плеча в другое, используются две матрицы размерностью 144 на 144, на самом деле даже больше, 3G-матрицы. На нее выведены порты воспроизводящих серверов. В тракте установлены дополнительные линии задержки для компенсации задержек выравнивания, соответственно, engine Ross Video и лого-инсертер и кейер, он же в одном лице, Grass Valley , ну и дальше по ходу обработка звуковых сигналов, вставка субтитров и чендж-оверы. Выполнено все таким образом, чтобы любое плечо полностью обеспечивало работоспособность комплекса, а второе можно было в любой момент отключить, провести любые работы: апдейт, апгрейд и все, что необходимо. Ну и пару слов о техническом решении Marina. Почему как мы выбрали именно это решение? Передаю здесь слово Сергею Шапкину, нашему главному технологу, который более подробно остановится на интеграции решения в нашу среду. Сергей?
Сергей Шапкин, главный технолог технической дирекции АО “ТВ Центр”: Спасибо. Добрый день, коллеги. Почему мы выбрали именно Pebble Beach Marina? Как уже Алексей Николаевич нам сказал, было 90% требований дирекции программ, которые сводились к функциональности системы, поэтому для нас было критически важно получить эффективность управления. Тем более, хотел бы отметить, что и у службы выпуска, и у инженеров, которые работают в вещательном комплексе, был большой опыт эксплуатации уже до этого нескольких систем автоматизации, таких, как Etere или Harris ADC-100. И они при формировании требований к новому вещательному комплексу и его функциональности учли все слабые и сильные стороны двух предыдущих систем.
Вдобавок, система должна была быть включена в общий технологический процесс компании по подготовке и выдаче программ в эфир. Для контроля и управления медиа-активами и субтитрами требовалась интеграция системы автоматизации с MAM. Наш выбор пал именно на систему автоматизации вещания Marina. С точки зрения надежности интеграции, собственно говоря, мы получили распределенную архитектуру приложений. Система Marina позволяет любым компонентам, таким, как Transmission List, драйверы устройств или системный процесс, связываться с любыми другими компонентами системы на сетевом уровне. Компоненты могут размещаться на любом ноде, что обеспечивает максимальную гибкость. Также система предусматривает несколько вариантов схем резервирования ключевых компонентов системы – Device Controller’ов. Это схема резервирования «актив-актив», схема резервирования «актив-пассив», в данной схеме также существует возможность автоматического перехода на резервный Device Controller без участия оператора. Также возможен смешанный режим – вариант резервирования Device Controller’а: часть каналов «актив-актив», часть каналов «актив-пассив».
Это схема резервирования «актив-актив», схема резервирования «актив-пассив», в данной схеме также существует возможность автоматического перехода на резервный Device Controller без участия оператора
Гибкая настройка прав доступа пользователей к ресурсам системы и гибкая настройка системы оповещения пользователей; большой спектр настроек для контроля состояния устройств, уведомлений, состояния медиа, размещенных в плейлисте, различного рода статистики (например, объема рекламы в часе), различные таймеры и счетчики; качественная система логирования, благодаря которой мы можем определить совершенно, с точностью чуть ли не до кадра, какие действия выполняла система, а какие действия выполнял пользователь – все это несомненные достоинства решения. Также мы получили широкий спектр команд API (SOAP), что позволило нам без труда интегрировать вещательный комплекс в наш технологический процесс. И благодаря богатому набору команд, еще и смогли свой технологический процесс оптимизировать. В частности, существенно, сократили время доставки медиаматериала на эфир, усилили контроль, устранили вероятность ошибок, связанных с заменой медиаматериалов. Доставка, регистрация, удаление медиа и субтитров выполняется инструментариями МАМ. В любой момент времени можно получить информацию по любому объекту, размещенному в АВК. Активно используем также функционал контроля состояния плейлистов с коллегами из «Регион Медиа», то есть это перекрытие региональной рекламой и прочее. С точки зрения эффективности и управления эфиром служба выпуска получила очень богатый функционал. Во-первых, это предустановка параметров для разного типа событий. Например, при добавлении медиа в плейлист, можно добавлять функцию управления субтитрами и вставлять пресет программы для управления аудио-процессором. Это также позволяет существенно упростить формат плейлиста, выгружаемого из трафик-системы, а пользователю, соответственно, не надо, разместив элемент расписания в плейлисте, совершать никаких дополнительных телодвижений.
Теперь о создании сценариев управления устройствами для разного типа или значений параметров в рамках одного типа. Сценарии могут быть самые разные. Например, для цветной метки SCTE-104 – расширенной метки, если в плейлисте встречается событие типа «региональная шапка открывающая», то можно вычислить хронометраж блока до события с типом “региональная шапка закрывающая”, создать метку, вложить данные и выдать в эфир за 10 секунд до начала основного события. Этот сценарий реализован у нас. Предусмотрена возможность сохранить шаблонность событий и фрагментов плейлистов. Это очень важная функция для дирекции программ, особенно в случае оперативных переверсток, то есть на специальную палету можно выделить целый фрагмент расписания, переместить его туда, и потом в нужный момент обратно вернуть в плейлист просто обычной функцией «drag and drop». Три уровня вложенности: основное событие, вторичное событие, дочерний элемент вторичного события. Это очень удобно при перемещении или копировании вторичного события на другой элемент расписания, как то возрастные, там, маркеры и так далее. То есть когда DSK открывающее-закрывающее привязано не к основному событию, а именно к дочернему событию, вторичному событию.
Реализуется передача параметров сцены непосредственно из плейлиста. То есть пользователь видит и, в случае необходимости, может заранее внести правки в содержание графической сцены. Таким образом, текстовые параметры, текстовые поля передаются непосредственно из-под системы автоматизации. Также возможно управление параметрами звукового микширования. Система позволяет управлять в процентном соотношении микшированием звука между A-В каналами видеосерверов. Мы это активно используем в так называемых бесшовных анонсах на конечных титрах программы. Возможность включить дополнительные параметры в плейлист. Эта функция, в основном, используется трафик-системой для того, чтобы протащить какой-нибудь атрибут от плейлиста до Asrun Log’а.
текстовые параметры, текстовые поля передаются непосредственно из-под системы автоматизации
Панель ручного управления графикой с рабочего места выпускающего. Это очень удобный функционал для выдачи в эфир ранее незапланированной графики. Можно также повторить графические события, которые по какой-либо причине не вышли в эфир, путем перетаскивания «drag and drop» этого элемента из плейлиста на панель ручного управления. Также есть возможность контролировать и управлять плейлистами удаленно. Это отдельное веб-приложение Lighthouse с широким набором виджетов и их настроек, которому можно отдельно посвятить целую презентацию. Если коротко, то мне его достаточно, чтобы понимать, что происходит на текущий момент в вещательном комплексе. И ко всему прочему, это приложение, как бы экономит достаточно приличные средства на толстых клиентах, предоставляя руководству статистические данные. Во-вторых, высокая информативность графического интерфейса. Свойства медиа, расширения, описания, разметки и так далее. Существует дополнительная панель, которая отображает полную информацию о медиа, об элементе расписания. Предусмотрены контроль состояния Device Controller’ов, доступность устройств основного и резервного плеча одновременно, создание дополнительных фильтров для поиска материала по разным категориям. Для быстрого поиска материалов библиотеки медиа возможно предварительно настроить поисковый фильтр по различным атрибутам.
Поиск и замена медиа. Этот функционал доступен во всех системах, но здесь есть своя изюминка. Дело в том, что супервайзер может выполнить поиск и замену одновременно на всех плейлистах, или на отдельно выбранных. То есть именно «find-replace» на уровне всех плейлистов. Это происходит достаточно быстро и достаточно эффективно. Мы получаем наглядное отображение исполняемого плейлиста на тайм-лайн, включая вторичные и дочерние события. В том числе, там есть и вторичные события, которые на нижнем уровне. Ну, как на станции нелинейного монтажа отображается, и это очень информативно и удобно.
Также пользователи получили возможность создания нескольких рабочих столов, для того чтобы не городить огород с множеством открытых окон на одном рабочем пространстве. Например, на одном рабочем столе настроить канал «Европа», а на другом – канал «Москва», на третьем – медиабраузер, ну и так далее, то есть, и переключаться между рабочими столами, что гораздо быстрее, чем открыть там окна и.т.д. И также гибкая настройка статистик. Статистики могут быть самые разные. Мы, например, используем статистику контроля объема рекламы в часе и по всему эфирному дню. Это очень помогает при оперативных переверстках и прямых эфирах, когда рекламные блоки могут перетекать. Чтобы не было превышений, собственно говоря.
На этом слайде отражена текущая система интеграции вещательного комплекса с системами управления медиа-активами компании. В принципе она классическая, только лишь с той разницей, что для обновления данных и контроля использования медиа используется API-команда, а не Job-листы. Вот. Эти решения позволили реализовать новый сценарий экспорта медиа и обновления данных, которые свели вероятность ошибки оператора инжеста к минимуму. Например, при необходимости замены медиа или его мета-данных, проверка использования и возможности сиюминутной замены выполняется системой МАМ, а не пользователем. При этом, если раньше проверка выполнялась в эфирных путевках трафик-системы, то теперь мы выполняем эту проверку в восполняемых плейлистах, то есть TX-листах, что существенно повысило точность определения времени использования и время, соответственно, замены, возможное на эфире. Ну, вот, собственно говоря, я мог бы говорить еще больше, но, пожалуй, закончу.
Алексей Брусницкий: Да, спасибо, Сергей, за такой детальный рассказ. Еще раз обращу внимание на то, что система очень гибкая, Сергей сказал пару слов о веб-приложении, которое существует у Pebble Beach, и мы, скажем так, использовали его как резервный вариант для вещания «удаленки» нашего вещательного комплекса. К счастью, он не понадобился, но все было готово, настроено, мы провели все эксперименты. Можно было хоть из дома вещать.
И вот практически финальный кадр, слева вы видите фотографию того, что было спроектировано, а с правой стороны – то, что получилось на самом деле. Конечно, основной упор делался на прямое вещание, на сложную графику, на 100% резервирование и работу без остановок, без профилактик. Именно из этого технологически и выстраивался весь комплекс. И еще скажу, что он не просто HD, в принципе, он способен вещать в стандарте 1080p, то есть 3G полноценно весь тракт, все это выполнимо. Если говорить о тракте, он достаточно короткий, как вы видели. Основная часть посвящена управлению, коммутации и всему прочему. О реализации всего комплекса, о его особенностях, всех фишках, расскажет наш системный интегратор. Слово передаю Ивану Ситникову, руководителю отдела системной интеграции Vidau Systems.
Иван Ситников, руководитель отдела системной интеграции Vidau Systems: Всем добрый день, коллеги. На самом деле, после того, как Сергей рассказал практически досконально о системе автоматизации, я даже могу пропустить смело большую часть презентации, потому что некоторые вещи, которые он рассказывал, я как человек, не эксплуатирующий систему, естественно, не знал. Хотелось бы рассказать о том, какие перед нами задачи ставились, и как мы их решали. Часть из них Алексей Николаевич уже, на самом деле, озвучил. То есть, основное требование, конечно же, было к системе автоматизации. Необходимо было найти решение, которое имело бы гибкую архитектуру, позволяющую производить легкое масштабирование системы, развить различные настройки каналов. Чтобы несколько каналов могли работать с одним видом оборудования, другие каналы – с другим оборудованием. Ну и как сейчас модно, предполагалось использование автоматики, которая не привязана к какому-то проприетарному оборудованию. То есть сейчас автоматизация стоит на серверах, Dell, по-моему. Но она позволяет вставать и на виртуальные машины, так как все управление, естественно происходит по IP.
Что же было сделано? Собственно, в качестве системы автоматизации, после длительных дискуссий, анализа, у нас даже был создан тестовый стенд, который мы разворачивали, где Сергей непосредственно принимал участие для испытания различных автоматизаций. Мы и автоматизацию Александра Богаткина демонстрировали, и Pebble Beach, и финальный выбор сделали в пользу последней. Также по максимуму выбирали устройства для организации технологического тракта, где есть уже управление через API. Там есть определенные нюансы, я о них расскажу чуть позже. Рабочие места для гибкости выбрали в рэковом исполнении и использовали KVM матрицы для доступа к этим рабочим местам. Ну, схемотехника также разработана так, что любой полиэкранник, который видит пользователь, может быть скоммутирован буквально в считанные минуты на любое рабочее место. Это как раз относиться к запросу о гибкости рабочих мест. Для возможности фильтрования информационных выпусков, естественно, нужна система с интеграцией с ньюсрум-системой, чтобы получать оттуда верстки и выдавать их в прямом эфире. Также для резервирования, то есть для работы без профилактик, была применена технология разнесения оборудования по стойкам. И система мониторинга была использована от AXON.
схемотехника также разработана так, что любой полиэкранник, который видит пользователь, может быть скоммутирован буквально в считанные минуты на любое рабочее место
Расскажу немножко о самой компании Pebble Beach. На самом деле у нее довольно-таки узкая специализация, что позволяет сфокусироваться на автоматике и как раз решить все потребности, задачи таких требовательных пользователей, как Сергей Шапкин. Всего у компании три направления – это системы автоматизации, системы управления контентом и интегрированные каналы, так называемые «каналы в коробке». В компании работает около 60 человек, из которых 25 разработчиков. У них есть собственный help-desk, работающий 24/7, и они очень ответственно относятся к подготовке персонала. Как говорили, очень много зарубежных каналов, включая TV-2 в Дании, Fox, Globosat в Бразилии, Al Jazeera во Франции, используют эту систему автоматизации. Я скажу больше, даже не только каналы, но и сервис-провайдеры отдают ей предпочтение. И вот здесь коротенький список тех каналов, которые совершили успешную миграцию с Harris на Pebble Beach.
Каковы же особенности, помимо тех, что озвучил Сергей? Он отметил, что используется система распределенных компонентов, то есть, она построена на микро-сервисах. Естественно, реализуется 64-битная система, полная поддержка Unicode, поддержка мультипоточности, многоядерности и максимальное использование API для интеграции с внешними устройствами. Как я и говорил, возможна установка и настройка на виртуальных машинах и модернизация, обновление без остановки вещания.
Здесь немножко об интерфейсе. Сергей уже это показал, поэтому я это пропущу. То есть представлены два вида, Сергей говорил как раз про тайм-лайн. Вы видите сразу несколько каналов, и что на них происходит в единицу времени. Теперь, собственно, огромная схема реализации проекта «ТВ Центра». Она очень интересна, чтобы вы просто понимали, насколько сложна и глобальна была задача по установке автоматизации. Эту же схему продемонстрировал Алексей Николаевич, о ней и Сергей рассказал со своей стороны.
О системе мониторинга AXON. Почему приняли решение ей воспользоваться? Уже был к тому моменту у телекомпании положительный опыт использования системы AXON для мониторинга. И в проекте решили развить этот успех. Плюс ко всему, использовалось оборудование, которое в большинстве своем управляется и контролируется на базе IP. Для управления всеми устройствами Grass Valley пользовался их собственной системой iControl, но только в качестве гейтвея. Для Linear Acoustic был написан для этой системы плагин, то есть Linear Acoustic имеет свое управление через HTML. Для LGK – Oxtel’овский протокол, для системы скрытого субтитрования – SNMP-trap’ы, и для Harmonic, естественно, Oxtel over IP.
Алексей Брусницкий: Иван, извини, я тебя перебью. Давай мы передадим слово Riedel, а потом у нас все равно будет про AXON еще разговор.
Тимур Кулгарин: Да, я предлагаю продолжить про AXON позже… Коллеги, я тогда передаю слово Алле Матвеенко и Ирине Кипятковой.
Алла Матвеенко, генеральный директор Riedel в России, странах СНГ и Балтии: Коллеги, день добрый. Коллеги из «ТВЦ» – вам особое здравствуйте, потому что, Вы, действительно, первый инновационный партнер, который все наше новое оборудование внедряет первым в Российской Федерации. Будем торопиться, поэтому хотим представить вашему вниманию те новинки, которые мы имеем на сегодняшний день, и, которые, возможно, вас заинтересуют. Акцентно, если будут вопросы, мы будем рады общению. Пожалуйста, свяжитесь с нами.
Ну, что сказать? За последние десятилетия технология SDI доказала, что это надежный и практичный стандарт для распределения видео-, аудио- информационных сигналов, и в ближайшие годы она будет оставаться важной составляющей вещательных и производственных инфраструктур. Однако уже появились системы на базе IP. Да, несомненно, IP – это будущее, но, согласно позиции нашей компании, еще не все готовы к переходу на эту технологию. Пока мы еще будем жить в мире, построенном на основе SDI. Хотя такая ситуация может восприниматься как препятствие на пути технологического прогресса, в то же время это очень-очень солидный фундамент, обеспечивающий безопасность и надежность. Riedel стал, в принципе, пионером в области внедрения распределенного подхода к созданию видеоинфраструктур, объединив передачу, маршрутизацию, обработку и преобразование сигналов сети реального времени с избыточностью. С тех пор сеть MediorNet стала самой универсальной и надежной магистральной IP-сетью на рынке. За последние годы семейство MediorNet значительно выросло как на аппаратном, так и на программном уровне, существенно расширив свои возможности и область их применения. Итак, MediorNet MicroN UHD. Долго мы его ждали, признаю. MicroN UHD – это следующее поколение устройств распределения и обработки сигналов MediorNet. Это новый узел, построенный на основе распределенной и программно-определяемой концепции Riedel. Обеспечивает дополнительную пропускную способность, больше операций ввода-вывода, более высокое разрешение и повышенную вычислительную мощность на платформе MediorNet. Новое дополнение к семейству MediorNet обеспечивает поддержку магистралей 400G, используя различные типы топологии соединения устройств, поддерживает сигналы UHD 4K и обеспечивает надежную работу благодаря резервированию каналов связи.
Riedel стал, в принципе, пионером в области внедрения распределенного подхода к созданию видеоинфраструктур, объединив передачу, маршрутизацию, обработку и преобразование сигналов сети реального времени с избыточностью
Одна из самых последний разработок Riedel, касающихся вопросов, связанных с переходом на IP – это ряд инновационных технологий на базе SFP, которые являются дополнением к интеллектуальным интерфейсам MediorNet MicroN, MicroN UHD и Compact, а также к центральному коммутатору MetroN. Платформы на базе программных приложений таких, как MuoN, вы видите это сейчас на слайде, позволяют наращивать количество операций ввода-вывода линейно и органично, поддерживая постепенный переход на IP-технологию без внесения радикальных изменений в оборудование аппаратной. MuoN SFP можно настроить с помощью различных приложений, и простое изменение лицензии превращает устройство в up/down/cross конвертер, кодер-декодер, аудио-маршрутизатор или даже мультивьювер. А также поддерживает работу с сигналами 4К. Серия компактных автономных устройств ввода-вывода и обработки FusioN может быть конфигурирована с помощью целого ряда программных приложений для работы в качестве IP-шлюзов, кодеров, декодеров или в качестве IP-мультивьювера. Тихие, компактные IP-конвекторы серии FusioN предоставляют различные варианты соединений между SDI/HDMI и оптическими форматами – стандартами IP ST2110. Более того, система способна поддерживать стандарты JPEG-2000 или JPEG-XS, обеспечивать конвертацию сигналов или выступать в роли 16-оконного мультивьювера стандарта IP ST2110. FusioN – это миниатюрный процессорный фрейм с тремя или шестью слотами SFP, обеспечивающий поддержку двух оптоволоконных каналов, для ST2022-7 c резервированием, а также и с автоматическим опознаванием форматов SD/HD/UHD.Благодаря компактному форм-фактору и низкому энергопотреблению, эти устройства можно размещать рядом с источниками сигналов и точками назначения, что обеспечивает их высокую эффективность в любой производственной среде. FusioN просто монтируется на задней панели стандартного монитора или устанавливается в стоечный корпус высотой 2 RU. Еще один из способов применения, смотрите, например, доставка сигналов из IP-инфраструктуры на контрольный монитор. При этом обеспечивается резервирование доставки сигнала. Или обратная ситуация, когда требуется сигналы HDMI передать в IP-инфраструктуру. В случае, когда расстояние между различными частями современных производственных цепей, например. между местом проведения мероприятия и ПТС, между объектами в разных частях города, становятся все больше и больше. Для IP-сетей у нас есть решение для кодирования-декодирования на базе устройств FusioN и приложений JPEG-2000 и JPEG-XS, предназначенных для уже сетевой передачи сигнала через NPL-сеть.
Платформа VirtU. Что это такое? Платформа VirtU для IP-инфраструктуры позволяет исключительно компактно разместить массив процессоров Riedel MuoN SFP в корпусе, высотой всего 1 RU. Этот фрейм может использоваться в качестве основного шлюза как процессор с очень высокой плотностью сигналов, а также для любой комбинации шлюзов и блоков обработки. Коммутатор VirtU 48-S позволяет подключить 48 SFP модулей с 25 Гигабитным интерфейсом и 8 по 10 Гбит магистральными портами. Полная поддержка стандарта ST2022-7 для оконечных устройств, а также поддержка APTP, VLAN, IGMP, QoS. Архитектура IP-сетей, используя MediorNet VirtU 48-S, позволит собрать все любые существующие в сети сигналы и передать их по магистральным линиям на основной и резервный IP-маршрутизатор, при этом сокращая количество кабелей и исключая промежуточные коммутационные узлы. Если вы хотите сделать первый шаг в направлении IP, не отказываясь от своего надежного, но уже устаревшего оборудования SDI, то благодаря MediorNet вам не придется отказываться от SDI.
Если вы хотите сделать первый шаг в направлении IP, не отказываясь от своего надежного, но уже устаревшего оборудования SDI, то благодаря MediorNet вам не придется отказываться от SDI
MediorNet дает возможность реализовать высокоскоростные решения для сопряжения имеющейся у вас инфраструктуры SDI с IP-сетью. А MuoN SFP позволяет постепенно расширять возможности маршрутизации многоэкранного мониторинга и обработки на базе IP. Таким образом, благодаря двум ключевым качествам, распределенной структуре и программно определяемому подходу, технологии Riedel сегодня позволяют: первое – обеспечить защиту инвестиции в IP-технологии, оптимизировать затраты, одновременно экономя рабочее пространство и снижая энергопотребление, а также сократить закупки оборудования и упростить интеграцию в крупномасштабные среды. Мы очень надеемся, что с нашими новыми решениями, мы окажемся полезными и в дальнейшем. Благодарю вас за внимание. Будьте здоровы. И успехов!
Тимур Кулгарин: Спасибо большое, за интересный рассказ. У меня тоже очень положительное впечатление от эксплуатации оборудования Riedel с двух предыдущих моих мест работы, поэтому тоже могу рекомендовать эти системы от себя.
Алла Матвеенко: Благодарю!
Тимур Кулгарин: Коллеги, у кого есть вопросы? Если, Алла, у вас есть еще несколько минут, может быть, вы успеете ответить немножко.
Алла Матвеенко: Ну, мы торопились. Мы всегда находимся в самых некомфортных условиях, когда дорого и мало времени.
Тимур Кулгарин: Ну, вы справляетесь.
Алла Матвеенко: Да-да!
Тимур Кулгарин: Коллеги, у меня, наверное, есть очень короткий вопрос: я правильно понимаю, что в проекте «ТВ Центра» у вас, в основном, служебная связь, да?
Алла Матвеенко: Да, у нас в основном связная часть. Алексей, поправьте меня, если я ошибаюсь. Но мне кажется, что это было лето 2014 года, когда мы поставляли MediorNet через компанию Vidau Systems.
Алексей Брусницкий: MediorNet у нас не поставлялся. Мы прорабатывали такое решение, но не внедряли его.
Алла Матвеенко: Алексей, не здесь, на «Мосфильме» ставили.
Алексей Брусницкий: Нет, на «Мосфильме» мы ставили тоже служебную связь и по оптике соединяли в единую систему.
Алла Матвеенко: Подождите. Есть же MediorNet у вас.
Алексей Брусницкий: К сожалению, нет.
Алла Матвиенко: Самое время!
Алексей Брусницкий: Мы подумаем на эту тему, но пока у нас задачи не сформировалось под MediorNet. Она была в свое время, потом, к сожалению, изменились условия, как всегда у нас и бывает.
Тимур Кулгарин: Мне кажется, самым крупным потребителем MediorNet сейчас является телеканал «Матч ТВ», поскольку у них много выездного продакшена, и там часто используется ваше оборудование.
Алла Матвеенко: Ну и у Russia Today 56 фреймов MediorNet, на «Матч ТВ» – 72 фрейма.
на Russia Today 56 фреймов MediorNet, на «Матч ТВ» – 72 фрейма
Тимур Кулгарин: Да, круто. Ладно.
Иван Ситников: Убедительно.
Тимур Кулгарин: Давайте мы перейдем к нашему следующему докладу. Следующий выступающий – Андрей Коржевин, компания Harmonic, чьи видеосерверы используются в обсуждаемом проекте.
Андрей Коржевин, региональный менеджер по продажам оборудования для телевещания в России, СНГ и Турции в Harmonic Inc: Коллеги, добрый день. Надеюсь, слышно хорошо. Собственно, поскольку Harmonic довольно активно участвовал в этом проекте, я бы хотел буквально, за пару-тройку минут обозначить нашу позицию и взгляд на всю эту историю. Для начала хотел поблагодарить отдельно за приглашение и сразу отметить, что формат интересный, перспективный, для меня новый. Я желаю организаторам и всех партнерам успехов в подобных активностях!
По существу, проект постройки вещательного комплекса на «ТВЦ» был для нас, и остается одним из ключевых по целому ряду параметров. Ну, во-первых, сам клиент с крайне ответственными задачами – соответствующее, все-таки, вещание, требующее жесткой оптимизации рабочих процессов и должного уровня резервирования. Во-вторых, довольно специфический, уникальный запрошенный рабочий процесс, который, впрочем, несколько раз подвергался корректировкам. Это, в общем, усложняло иногда и сдвигало определенные сроки, но, тем не менее, я считаю, все было сделано верно. В-третьих, это сложный иногда, порой, даже мучительный процесс интеграции настройки некоторых компонентов системы между собой, особенно если мы говорим о серверной группе и системе автоматизации. А, как вы знаете, на момент реализации данного проекта Harmonic помогал представлять интересы Pebble Beach в регионе и в ряде ключевых проектов, которые сегодня обозначались. И поэтому Harmonic уже от своего имени под брендом Polaris, и реализовывал данную связку. Кроме того, это, пожалуй, один из самых затяжных проектов, но при этом один из самых интересных, в которых лично я участвовал. Насколько мне известно, проект практически полностью реализован, запущен, поэтому сейчас является таким достаточно серьезным референсом для всего нашего рынка. В этом, естественно, есть большая заслуга и инженерного, и руководящего состава «ТВ Центра», и системного интегратора Vidau Systems, который, не жалея ни сил, не ресурса, не щадя никого и ничего, планомерно продвигался и, собственно, все это устраивал.
Буквально пара слов об архитектуре. Проект был реализован на линейке серверов Spectrum-X, точнее на ее топовых компонентах – это медиадиректора, медиасторы, медиапорты, с достаточно серьезной степенью резервирования. И, я бы сказал, несмотря на достаточно длительный промежуток между фактической поставкой и сдачей проекта, система и по сей день является максимально актуальной и готовой к дальнейшим апгрейдам, практически, по любым направлениям – будь то добавление каналов, изменение каких-то рабочих процессов, работ с HDR, 3G, субтитрирование и.т.д. И даже если клиент захочет в какой-то момент попробовать вещать в UHD, я думаю, нам будет, что обсудить, и будет, что предложить. Если бы этот проект прорабатывался сегодня, то, скорее всего, глобально архитектура не поменялась. Ну, точнее, наше предложение, наверное, с точки зрения архитектуры, было бы похожим. То есть поменялось бы название линейки серверов. Теперь бы это был бы Virtual-lights Spectrum-X или VS-X. Это связано с рядом наших внутренних концептуальных изменений, но о них я бы, конечно, предложил поговорить уже на отдельном мероприятии, о котором мы сообщим отдельно напрямую, либо через наших давних партнеров, которые любезно предоставляют площадку, компанию Vidau.
И относительно системы автоматизации тоже пару слов.
Если бы этот проект прорабатывался сегодня, то, скорее всего, глобально архитектура не поменялась. Ну, точнее, наше предложение, наверное, с точки зрения архитектуры, было бы похожим. То есть поменялось бы название линейки серверов
Насколько мне известно, и действительно, сегодня уже об этом говорилось не раз, «ТВ Центр» довольно ответственно, долго и скрупулезно тестировал и изучал возможные варианты, возможные альтернативы Pebble Beach. Но я думаю, что в конечном счете ребята остались довольны и в любом случае не пожалели и не пожалеют. И даже, несмотря на то, что на сегодня Harmonic и Pebble Beach развиваются по собственному пути и сценарию, я лично до сих пор считаю, что Pebble Beach достойный технологический партнер, и если бы мы проект реализовывали снова, я бы порекомендовал их.
Тимур Кулгарин: Спасибо большое, Андрей. Кратко, но емко. Что могу сказать? Коллеги, у кого есть вопросы – задавайте, пока у нас есть несколько минут.
Алексей Брусницкий: Тимур, я могу тогда небольшое дополнение сделать, что по ходу проекта мы добавляли еще один канал. Это технология «канала в коробке» от Harmonic. И уже в рабочем комплексе установили его, запустили, и он прекрасно работает для одного из наших низших каналов, то есть теперь у нас не 8+8, а 9+9.
Тимур Кулгарин: Понятно. Постепенно растет комплекс.
Алексей Брусницкий: Ну, как и закладывали – с расширением на 12. Дорастем когда-нибудь.
Тимур Кулгарин: Здорово. Хорошо, коллеги. Тогда предлагаю перейти к следующей части нашего круглого стола. Давайте послушаем нашего коллегу, мы расширяем географию наших спикеров, мистер Стюарт Рассел. А переводить будет Иван Ситников.
Стюарт Рассел, Senior Communications Manager Ross Video: Спасибо вам большое, что пригласили меня. Прошу прощения за то, что следующие пять минут будут на английском. Евгений Хованский мне рассказал, что здесь пойдет речь о проекте «ТВ Центра», и для Ross эта телекомпания является довольно-таки значимым клиентом. То есть проект, в котором мы ранее участвовали, был связан с установкой роботизированных систем для студии и заменой системы графического оформления для комплекса. И закончилось наше общение тем, что «ТВ Центр» приобрел два робота CamBot, две роботизированных системы CamBot и 16 систем графического оформления эфира XPression BlueBox. Во время реализации проекта мы столкнулись с несколькими непростыми задачами, но благодаря нашим инженерам-разработчикам, которые написали скрипты, осуществили доработки, получилось все исправить. Если касаться российского рынка, то это один из первых каналов, который использует наши роботизированные системы в проектах, и мы очень рады быть связанными с этими проектами.
Во время реализации проекта мы столкнулись с несколькими непростыми задачами, но благодаря нашим инженерам-разработчикам, которые написали скрипты, осуществили доработки, получилось все исправить
Что касается будущего, то сейчас у них в линейке, как минимум, 4 системы рельсовых, Furio и, как минимум, одна система колесная – это CamBot и, возможно, в перспективных проектах что-то из этого можно использовать. Нам очень нравится работать c «ТВ Центром», потому что их инженеры очень профессиональные и ставят перед собой грандиозные задачи. Надеемся, что благодаря сотрудничеству с «ТВ Центром», у нас получится изобрести какие-то новые варианты решений, которые будут потом представлены на рынке. Хотелось бы завершить свое выступление и поблагодарить нашего партнера Vidau Systems, который, собственно, поддерживает, предоставляет нашу поддержку в России и также очень тесно работает с Евгением Хованским.
Тимур Кулгарин: Да, коллеги, спасибо большое. Хотел еще анонсировать, если у нас останется время в конце нашего круглого стола, мы собираемся провести виртуальную экскурсию по нашему вещательному комплексу компании «ТВ Центр». Поэтому оставайтесь с нами. А следующий выступающий у нас – Александр Богаткин из компании Grass Valley, конечно же. Мы все его хорошо знаем и видим. И, как мы слышали раньше, очень много компонентов Grass Valley используется в техническом решении – это и матрицы, и полиэкранники, и лого-инсерторы, и вообще практически вся обвязка. Александр, вам слово. Расскажите о новинках и что интересного было в этом проекте.
Александр Богаткин, директор по продажам Grass Valley в России и СНГ: Добрый день! Спасибо, что пригласили нас. Огромное спасибо «ТВ Центру» за выбор нашего оборудования. Мы с ними сотрудничаем уже десятки лет, Vidau – наш давний партнер, огромное количество коллег, которые с нами в контакте, знают наши продукты досконально: мы и тренинги, и семинары проводим, поддерживаем всех документацией. Много раз ездили на рессер-инсайты и за границей, и в России. Спасибо огромное, что мы всегда вместе, и я надеюсь, мы продолжим это сотрудничество в будущем.
Наше участие в проекте АВК «ТВ Центра» очень весомое. Как вы знаете, наша компания развивается на протяжении уже 60 лет. Соответственно в 2018 году мы приобрели компанию SAM, которая уже в себя включала Snell & Wilcox и Pro Bel, и вот вчера, наконец-то, после полугодовых переговоров официально мы перешли под юрисдикцию компании Black Dragon Capital. И, соответственно, с июля этого года мы принадлежим Black Dragon. У кого будут вопросы по этой ситуации, потом ко мне может лично обратиться.
Все портфолио наших продуктов не охватишь за 10 минут. Вы видите на слайде, что мы делаем все для производства телевизионного контента. Всем известны наши камеры, пульты микшерные, системы повторов. Мы делаем все, что касается и производства. Stratus наш стоит и на «Матч ТВ», и на «ТВ Центре», и на «Мосфильме».
На тот момент, когда выбиралась система автоматизации, Morpheus принадлежал не нам, и поэтому, скорее всего «ТВ Центр» не рассматривал эту систему для участия в проекте. Конечно же, мы делаем все, что касается инфраструктуры. Это и SDI, и IP-матрицирование, соответственно, и система отображения, мониторинга. Для инфраструктуры «ТВ Центра» мы предлагали наши матрицы NV-8500 с контрольными панелями, конечно же, все это было под управлением нашей системы iControl. И, как уже говорилось, мы также были интегрированы в общую систему мониторинга.
Вот вы видите, что к нам от SAM’а пришел Sirius, Pyxis и Vega. И также мы поставляем по-прежнему и NVision матрицы, то есть, продукты не сняты с производства. Конечно же, говорить нужно о будущем. Мы с коллегами были уже на IP-инсталляциях, у нас есть своя собственная матрица GV Fabric, у нас есть свой процессор, который позволяет работать с аудио в IP, у нас известнейшие модули IQUCP и, конечно же, наши модульные системы Densite, и система управления у нас теперь единая, которая называется GV Orbit, которая включает в себя и iControl, и Orbit, и бывший Conversion. И также NV-9000, которая стоит будто в уценке, и множество контрольных панелей, кнопочных.
Мы делаем все, что касается и производства. Stratus наш стоит и на «Матч ТВ», и на «ТВ Центре», и на «Мосфильме»
Сейчас расскажу еще о новинках. Если вы посмотрите на спектр наших продуктов в IР и в SDI, то фактически у нас сейчас есть центральная матрица GV Fabric – наша собственная, которой мы управляем с помощью GV Orbit – единой системы управления, камеры, которые поддерживают IP. Вы помните, недавно на post-NAB конференции мы представляли LDX100, новейшую камеру, которая может работать как с базовыми станциями, так и без них. Наши микшерные пульты – Karrera, Kahuna, Kula и Korona – поддерживают все IP-интерфейсы. Известнейший наш продукт по транскодированию и процессингу Alchemist. Система плей-аута, система отображения – все это поддерживает IP. Все продукты, которые мы поставляли для «ТВ Центра»: Kaleido-IP, Densite, – могут иметь IP-интерфейс, то есть вы фактически можете через SFP-адаптер на задней панели модуля подключить этот модуль в IP-сеть. И мы поддерживаем все стандарты, которые сейчас имеются на рынке – SMPTE ST2110, AAMVA и, конечно же, AES-67. У нас самое большое IP-портфолио. И, конечно, мы очень масштабируемы. Мы готовы работать со всеми матрицами, представленными в индустрии, включая всех производителей off-the-shelf. Посмотрите, сколько у нас инсталляций в мире. Уже 70+ IP-инсталляций, включая и ПТС, и телевизионные центры, и продакшен-хаусы и.т.д. И посмотрите, какие рынки. Есть и LinkedIn, который у нас закупил IP-оборудование, есть классические вещатели, Canal+. Есть ARENA, которая использует уже 4 ПТС в Англии, снимает в UHD на своих ПТС-ках в IP Английскую футбольную лигу. И первые наши заказчики в России – это Five MediaLab, бывший DigitalLab, который построил у себя 22-х канальную систему автоматизации за 4 месяца. Соответственно все это было в IP на блейдах. С одного блейда они вещают 4 канала видео HD. И это все работает под управлением ICE SDC Morpheus. И последняя новость – в прошлом месяце ТТЦ «Останкино» закупил у нас 22 камеры с IP-входами и выходами на базовой станции.
Что касается инициатив в процессинге, которую мы будем дальше развивать – это конечно же, связано с тем, что нас купил Black Dragon. Стоит учитывать нашу ситуацию, когда проекты длятся по 3-4-5 лет, когда мы не можем предсказать, когда нужна будет инсталляция, когда будет запуск в эксплуатацию, лендинг и.т.д. То есть мы все больше и больше по заданию Black Dragon будем уходить в программное обеспечение, и все наше железо будет также модернизируемо, апгрейдируемо и настраиваемо, в зависимости от ваших требований. Конечно же, будет расширяться линейка IP-продуктов, и также мы будем поддерживать 12G на всех наших линейках. Пример такого нового поколения модулей – это XIP – фактически программируемый модуль. Мы можем спокойно сегодня иметь этот up/cross/down конвертер, завтра это будет simulcast. Можем сделать фактически некомпрессированный 4К UHD стриминг, поддерживать любые стандарты IP и также реализовать фактически на борту 228-канальный аудиопроцессор.
по заданию Black Dragon будем уходить в программное обеспечение, и все наше железо будет также модернизируемо, апгрейдируемо и настраиваемо, в зависимости от ваших требований
Немного о Kaleido-IP, вы видите, какая мощная сейчас машина. В России используется везде, на всех телекомпаниях, но вы видите, что у нас 100 Гбит интерфейс скоро будет. Очень маленькая задержка у Kaleido – всего 1,5 фрейма для отображения сигналов, заметьте, сколько картинок можно расположить на одном мониторе.
В свою очередь, Alchemist – известнейший наш процессинг, способный выполнять конвертацию из любых сигналов, из любой частоты кадров. Я знаю, многие заказчики сейчас ищут такое оборудование и надеюсь, что Олимпиада в Токио случится в конце концов в следующем году. И нужно будет, конечно же, из сигнала NTSC конвертировать и частоту кадров преобразовывать. То есть, Alchemist – самый лучший вариант. Он может быть в файловом виде или может работать с живым сигналом на проход.
Мы знаем, что IP-матрицирование растет. Согласно результатам опросов, 46% технических директоров все больше переориентируются на IP-матрицы. И это показатель для «ТВ Центра», уже есть проекты, они задумываются об этом. И, конечно же, JPEG-XS компрессия, в это направлении мы тоже двигаемся. У нас появился тачскрин для управления матрицей. И, соответственно, на NAB 2020 решение должно было быть представлено. Не могу не показать нашу новейшую камеру LDX 100. Это вообще революционная камера, с которой сразу можно уходить в IP, она поддерживает «супер-слоу моушн» в UHD и имеет серьезный эргономический дизайн. И также мы говорим, что она защищена от брызгов шампанского. Если вы выиграли в «Формула-1», то, пожалуйста, на нее можно лить шампанское. Только выигрывайте! Что касается системы управления и подачи питания для наших камер, если они работат в поле, в ПТС – тут все решено. Спокойно уходите в гибридную оптику, и многие километры проходите по черным волокнам, если нужно доставить изображение на 1000 км. У нас IP передается внутри гибридной оптики.
Новейшая наша разработка называется AMPP. У нас уже есть реальные эфиры, когда режиссер сидит у себя дома, звукорежиссер сидит – в гараже, графист находится в отеле и.т.д. Вот эта система AMPP позволяет вам работать дистанционно, через обычный интернет и с бродкастовым качеством выдавать в эфир сигналы. Есть у нас пример, Blizzard уже с января этого года проводят трансляции киберспортивных турниров на базе AMPP. Мы это все поддерживаем в течение полугода. И наше решение выбирают не только организаторы онлайн-стримов E-sport, но и классические вещатели, в том числе спортивный телеканал в Северной Америке.
Тимур Кулгарин: Коллеги, есть ли какие-нибудь животрепещущие вопросы? Ну, похоже нет. Вы слишком известны, чтобы так сразу сформулировать вопрос. Телеканал «ТВ Центр» уникален еще и в плане работы с субтитрами. В частности, субтитрируются даже живые выпуски новостей. Про подготовку субтитров на базе софта Screen Systems нам расскажет представитель компании-интегратора Vidau Systems Дмитрий Хлопцев.
Дмитрий Хлопцев, системный инженер-разработчика Vidau Systems: Компания Screen Systems имеет историю порядка 40 лет. Началась она в 1976 году, когда сотрудник компании BBC Лори Аткинс в своем доме в Англии (в городе Сафлтутонс) организовал компанию, которую назвал Screen Electronics. В этом доме он впервые изготовил электронную систему субтитрирования Делались субтитры на карточках, фотографировались и потом переносились на видеосигнал. С 70-80-х гг. компания лидировала на рынке производства субтитров, разрабатывала новые технологии, далее уже компьютерные системы подготовки субтитров и первую многоканальную многоязычную систему субтитрирования. В 1991 году она переименовывается в Screen Subtitling Systems, сокращенно Screen Systems. В 1998-ом году они первые показывают свою систему для работы субтитрированием в DVB. И с 2002 года их главным и основным продуктом становится универсальная платформа POLISTREAM. Начали они ее производить в 2002 году, а в 2009 году на базе POLISTREAM выпустили универсальную платформу, которую я дальше покажу, POLISTREAM BLACK. Она существует до сих пор.
В 2011 году они купили компанию SysMedia, которая занималась производством софта для подготовки субтитров и телетекста. И после этого Screen Systems стала иметь полный цикл производства и вещания субтитров от начала до конца, от производства контента до вставки уже в выходной сигнал. Уже в 2018-ом году компания BROADSTREAM, которая занимается playout-системами, купила компанию Screen Systems.
Так, на данном слайде представлена платформа POLISTREAM BLACK, которая установлена на «ТВ Центре». Она представляет из себя одноюнитовый сервер, функционал которого определяется вставленными в него картами расширения. Можно вставить две карточки в верхние, соответственно, и в нижние слоты. Карточки бывают для работы с тайм-кодом LTC, VITC. Для работы с VANC-областью сигнала, это вставка субтитров, телетекста, 104 метки и каких-либо еще данных. ASI-карточки – для работы с DVB-потоками. И, если необходимо, даже карточки GPI. Благодаря этому система умеет работать с разными входными и выходными сигналами и поддерживает технологии вставки различных субтитров, как открытых, так и скрытых, DVB-субтитров, телетекстных субтитров, а также обеспечивает полностью все технологические процессы субтитрирования: это субтитрирование из файла, субтитрирование живое, когда мы говорим про новости или про прямые эфиры; и прямую вставку субтитров из системы автоматизации (такое тоже иногда бывает, когда система автоматизации отправляет блоки для вставки в эфирный сигнал). По софтверной части POLISTREAM BLACK представляет из себя модульную конструкцию, это отдельные приложения, которые можно друг с другом комбинировать и таким образом выстраивать цепочки, получать необходимый функционал.
система умеет работать с разными входными и выходными сигналами и поддерживает технологии вставки различных субтитров, как открытых, так и скрытых, DVB-субтитров, телетекстных субтитров, а также обеспечивает полностью все технологические процессы субтитрирования: это субтитрирование из файла, субтитрирование живое, когда мы говорим про новости или про прямые эфиры; и прямую вставку субтитров из системы автоматизации
Относительно пользовательского ПО. Изначально оно разрабатывалось компанией SysMedia, которую, как я уже сказал, в 2011 году компания Screen Systems купила. И представлено ПО двумя линейками, первое это WINCAPS – программа для подготовки субтитров и управления живыми новостными вставками в прямых эфирах и связка программ с Plasma & Spite, это программы для подготовки страниц телетекста и для формирования журналов телетекста. Преимущества, которые мы видим у решений компании Screen Systems: во-первых, полное покрытие технологического процесса подготовки субтитров; во-вторых, все системы компании уже давно на рынке и со всеми большими крупными компаниями, которые выпускают автоматизацию, они имеют интеграционные решения; и, при этом, система поддерживает стандартные протоколы управления, и, помимо этого, имеется собственный API, которым тоже можно пользоваться в меню управления. И большой плюс – это модульность системы, как железной части, когда мы можем подбирать необходимые нам входные и выходные интерфейсы, так и программная модульность на платформе, когда возможно организовать любой нужный нам технологический процесс, резервируемость (потому что эти модули можно запускать на разных серверах). И что самое интересное, и что использовалось на телекомпании «ТВ Центр», – это возможность создания кастомных модулей. Например, для «ТВ Центра» был разработан модуль вставки 104-ой метки, которого у них до этого не было.
Кратко можем посмотреть на структуру системы субтитрирования на телеканале «ТВ-центр», вот она представлена на этом рисунке. Помимо основных серверов в main-плече и backup-плече, система завязана с внутренним MAM телеканала – Point Master. В этом MAM хранятся субтитры, файловые субтитры, которые подготовили операторы для фильмов и телепередач. И в это же системе Point Master операторы продолжают описывать и подготавливать субтитры. Другая система, с которой она связана, это новостная система Dalet – из нее операторы уже живого субтитрирования получают по MOS верстку выпуска, чтобы дальше потом ее субтитрировать. И в систему субтитров даже входит небольшой кусочек виртуализации на базе VMware, у нас поднята виртуальная поднята инфраструктура, где созданы две машинки виртуальные, на которых живут сервисы, которые обеспечивают работоспособность всей этой системы. И два рабочих места, выпускающих операторов живых субтитров. Серверов используется у нас 8 штук: 4 в main-плече, 4 в backup-плече, соответственно, полное резервирование, сервера умеют работать независимо друг от друга, но, тем не менее, два сервера, один в main-, другой в backup-плече, выделены как сервера конфигурации, в которых хранятся все настройки для остальных канальных врезчиков.
Помимо основных серверов в main-плече и backup-плече, система завязана с внутренним MAM телеканала – Point Master
Технологические процессы, которые завязаны на структуру Screen Systems – это субтитрирование из файла; живое субтитрирование; подготовка и вставка телетекста, вставка метки SCTE-104. Соответственно, в случае субтитрирования из файла у нас есть готовый файлик, который подгружается по командам из автоматизации на сервер, оттуда берутся, вычитываются блоки субтитров и, исходя из приходящего тайм-кода, который берется из внешнего сигнала, врезчик уже вставляет необходимые блоки субтитров дальше в канал. При живом субтитрировании полностью управляет вставкой оператор, он отслеживает, он получает текст из новостной системы Dalet: отслеживает по прямому каналу выпуск новостей, слушает, что говорит ведущий и нажимает кнопки «выдать субтитры/убрать», врезает нужные субтитры. С телетекстом существует подразделение в отделе субтитрирования, которые готовят странички телетекста, организуют их в журналы и отправляет на врезчик, который уже по расписанию, например, в понедельник утром, вставляет эти журналы в эфир. Со 104-ой меткой вставка идет на стороне системы автоматизации, врезчик только получает готовые пакеты с входной и выходной меткой, преобразует их и вставляет в VANC-области.
Ну и последнее, о чем хотел рассказать, это как раз новая ревизия данной платформы POLISTREAM BLACK, которая называется U-8000. В отличие от предыдущего сервера, который стоит на канале, здесь обновилась материнская плата с процессором, стоит более современная операционная система, уже два блока питания и есть поддержка UHD интерфейсных карт. Знак вопроса, что бы мы посоветовали, если бы строили комплекс сейчас? Это POLISTREAM BLACK версии 3. Спасибо большое, у меня все, если есть какие-то вопросы, задавайте.
Тимур Кулгарин: Да, спасибо большое, было интересно. Коллеги, есть ли у вас вопросы по субтитрированию?
Татьяна Золотуская, руководитель отдела продаж Cinegy GmbH: Да, если возможно, у меня маленький вопрос, хотела бы уточнить. Кроме «ТВЦ» где еще присутствует Screen Systems? Есть ли инсталляции в других российских медиакомпаниях?
Дмитрий Хлопцев: В России, насколько мне известно, нет.
Татьяна Золотуская: Я поэтому как раз задаю вопрос, потому что система несколько дороговата, как мне кажется, для российского рынка, в частности. И как вам кажется, как можно ее представлять для российских клиентов?
Дмитрий Хлопцев: Я не согласен с вами, что она дороговата. Мне кажется, приемлемо: так же на уровне, как у всех остальных. Главный плюс я вижу в том, что это действительно широко используемая система, поэтому с ней очень легко интегрироваться всем системам. В частности системам автоматизации, а это самое главное.
Татьяна Золотуская: Да, конечно, наш продукт тоже полностью интегрирован с системой Screen Systems, есть много первичных клиентов…
Дмитрий Хлопцев: Насколько я знаю, было интервью с представителем компании Screen Systems, директором по коммуникациям, и он сказал, что 76% мировых вещателей используют оборудование Screen Systems. По мне, это главный аспект, почему нужно выбирать “Screen Systems”.
Татьяна Золотуская: Хорошо, спасибо.
Алексей Брусницкий: Татьяна, добавлю только чуть-чуть. По сути дела, у нас было два требования: это надежность, и Screen Systems отвечал этим требованиям, и второе, – это субтитры в живом эфире, что практически ни у кого не было.
Татьяна Золотуская: Совершенно с вами согласна. Я не работаю на Screen Systems, но я знаю хорошие клиентские примеры интеграции именно наших решений с Screen Systems. Поэтому ваш пример должен быть заразителен для других имеющихся заказчиков и потенциальных клиентов.
Дмитрий Хлопцев: У меня маленькая поправочка. У меня сейчас Денис Стольников в чат всем написал, что Sceen Systems используется еще на «Матч ТВ».
Тимур Кулгарин: Да, у меня коллеги тоже подтвердили это.
Татьяна Золотуская: Отлично, будем работать.
Андрей Мамонтов, руководитель комплекса технологического обеспечения ТВ и радиопрограмм технического департамента ЗАО “Русская Медиагруппа»: Тайм-код, я правильно понял, что общий, а не в видеопотоке передается?
Дмитрий Хлопцев: Можно так, можно так.
Алексей Брусницкий: Можно по-любому, у нас в данном случае тайм-код генерирует сам видеосервер, а потом в видеопотоки забирается.
Тимур Кулгарин: Коллеги, а каким образом осуществляется мониторинг выхода субтитров? То есть, у нас входе есть расписание, есть файлы, видеофайлы и файлы субтитров в МАМ. На выходе у нас есть видеосигнал, понятно, что Hopsteam Solution запишет, и можно в полицейской записи посмотреть, что они были, допустим. А вот в процессе вещания каким образом все мониторится?
Дмитрий Хлопцев: Да, мониторится. Даже в двух местах. Нам очень помогла в этом плане система-мультивьюер от Grass Valley, они одни из немногих, кто умеет отображать субтитры. Поэтому в вещательном комплексе в каждом окошке сигнала выведены на подсмотр субтитры, и операторы и инженерная смена всегда видят: выходят субтитры или нет. А в отделе субтитрирования, который находится не в вещательном комплексе, а в другом помещении, у них стоят небольшие преобразователи от компании DuCaption, это маленький модуль, маленькая коробочка работает на проход, которая поверх сигнала может отображать, прожигать субтитры и телетекст.
Сергей Шапкин: Я добавлю еще, у выпускающего на рабочем месте есть контроль субтитров для этой программы. То есть система автоматизации и отображает наличие файла субтитров как медиа, в клиенте и у пользователя, и у инженера. То есть в графическом интерфейсе системы автоматизации это тоже присутствует.
Тимур Кулгарин: Это очень хорошо.
Алексей Брусницкий: Я бы добавил, что у нас и дальше еще есть контроль. То есть в выходной точке перед подачей на оператора у нас установлено оборудование от Evertz, и в их системе мониторинга тоже отслеживается и 104-ая метка, и субтитры на наличие, и в случае отсутствия система мониторинга тут же сразу верещит, показывает, и сразу же все подпрыгивают. Мы – лидеры по производству субтитров из всех каналов и делаем их максимальное количество.
Мы – лидеры по производству субтитров из всех каналов и делаем их максимальное количество
Тимур Кулгарин: Да, помню приезжал к вам на экскурсию, набирался опыта с субтитрами.
Алексей Брусницкий: Да, Тимур, тогда тебе дальше слово, что у нас по плану.
Тимур Кулгарин: У нас по плану предполагалось выступление HPE.
Алексей Брусницкий: Я где-то видел Федотова…
Дмитрий Федотов: Да, добрый день, я здесь.
Тимур Кулгарин: Дмитрий, здравствуйте, да, рады, что вы с нами. Тогда буквально можно в двух словах про новинки компании HPE, потому что ваше оборудование использовалось в этом проекте: и серверы, и системы хранения.
Алексей Брусницкий: Пару слов я скажу еще, Тимур. На самом деле, в проекте использовалось не так много оборудования, но в самой программе перехода на HD оборудования использовалось много, потому что модернизировался не только вещательный комплекс, но и безленточная технология: использовались и системы Dalet, и блейд-сервера НРE, и системы хранения 3PAR, и Fibre Channel-сеть тоже построена на оборудовании НРE.
Дмитрий Федотов: Анатолия нет, поэтому я, как человек, занимающийся системами хранения, в первую очередь начну с систем хранения, и у нас идет постепенный переход на новую систему хранения Primera. Это дальнейшее развитие хорошо вам знакомого 3PAR’а, и сейчас, я знаю, что какие-то планы по переходу с 3PAR’а на Primera есть. Но 3PAR – еще актуальная система, и она будет существовать довольно долго, параллельно с Primera. И даже будет развиваться, будет выходить новый софт для 3PAR. Но, соответственно, Primera – это будущее и, в первую очередь, это TIR-0 система, для которой, наверное, это уникальное в отрасли предложение. Мы не просто гарантируем и говорим, сколько у нас девяток после запятой, мы гарантируем финансовую ответственность. То есть, если система простаивает, мы даже без открытия специального запроса и подачи в суд от заказчика, автоматически отдаем заказчику кредиты, которые он может потратить на покупку новой системы, либо на апгрейд существующих. То есть для подобных проектов это, в первую очередь, надежность.
Второе, что я хотел бы отметить, это более активное развитие в сторону Software Defined Storage и, в первую очередь, мы предлагаем SDS для архивных систем и активно развиваем это направление совместно с партнерами. В первую очередь, это Scality, то есть системы с очень высокой емкостью, практически неограниченной. То есть для вас это, наверное, довольно актуальная тема, и эти системы, в отличие от традиционных лент, обладают мгновенной реакцией, то есть это диски, но, в то же время, по цене они сравнимы с лентой.
системы с очень высокой емкостью, практически неограниченной, в отличие от традиционных лент, обладают мгновенной реакцией
Ну, и, наверное, самое главное, это компонуемая инфраструктура, и вы ее активно используете, это Synergy. Она активно развивается, то есть вы одни из немногих вообще и в мире, и в России телевизионных компаний, которые активно использовали блейд-инфраструктуру именно в производстве. Мы надеемся, что вы и дальше будете оставаться флагманом отрасли и использовать Synergy. Как вы знаете, C-класс был представлен в далеком 2006 году. С тех пор изменились и концептуальные требования к серверам, энергопотребление, и требования по количеству памяти, поэтому Synergy просуществует, надеюсь, не меньше, а, может быть, даже дольше и даст возможность использовать скорость и 400 Гигабит, которая сейчас уже на подходе, да, и более высокие скорости, когда в них возникнет потребность. И все это мы можем предоставлять не просто как набор железа, а как услугу, то есть вы можете с нашей программой Greenlight потреблять это просто как сервис. Таким образом, получить оборудование и платить за его использование.
Тимур Кулгарин: Спасибо большое, Дмитрий. Коллеги, есть ли у вас вопросы к компании Hewlett Packard Enterprise?
Алексей Брусницкий: Что-то с вопросами у нас в этот раз не густо.
Иван Ситников: Все, наверно, перегружены.
Тимур Кулгарин: Больше всего вопросов было по телетексту.
Анатолий Зубашев, генеральный директор “Теком” : Есть вопрос общего характера, Тимур, если позволите.
Тимур Кулгарин: Конечно.
Анатолий Зубашев: Алексей Николаевич, говорил, что вы без малого с 2013 года начали проектирование комплекса. И, согласно картинкам, получившийся комплекс совпадает с первоначальным представлением. Но не всегда так получается. Что за 7 лет в проектировании было сложного? Всегда приятно делиться успехами, и это очень здорово, но более интересно узнать о набитых шишках. И второй вопрос: что вы используете в качестве системы контроля качества?
Алексей Брусницкий: Шишки всегда набиваются на том, что предсказать не можешь. Основное управление рисками, конечно, было связано с защитой от изменения курса доллара, например. Потому что мы точно попали, начиная концептуально в 13-ом году. И я не думаю, что мы что-то иное могли бы придумать, кроме тех мер, которые были предприняты. Вторая часть – шишки с изменением, собственно говоря, конкурсных процедур. У нас по ходу менялись, вводились новые правила не нами, а сверху – от города, от мэрии. И нам приходилось учиться, познавать, подстраиваться, переделывать. Например, конкурсную документацию – это 219 страниц, технико-экономическое обоснование – 181 страница, техническое задание – это более 60 страниц. Только одного текста там и описания было огромное количество.
Требования, которые были перед нами поставлены, остались актуальны до сих пор, и, как я уже говорил, определили архитектуру комплекса. И я даже не совсем уверен, что сейчас бы пошел на IР-инфраструктуру, потому что она не была бы столь эффективной, как структура в SDI сейчас. Вообще говоря, все специалисты говорят о том, что IP-инфраструктура эффективна, когда у вас матрица получается по размерам больше чем 500 на 500. Мы остановились на 288. И поэтому даже сейчас SDI-инфраструктура была бы эффективней. Наверно, через два-три года IР будет выгодней. Но сегодня мы вряд бы раскрыли все преимущества IP, которые есть. Вот в других проектах, о которых мы думаем, скорее всего, мы раскроем именно IP и будем двигаться в этом направлении.
через два-три года IР будет выгодней. Но сегодня мы вряд бы раскрыли все преимущества IP, которые есть
По поводу контроля качества. Во-первых, у нас установлена система Hopsteam, которая контролирует, собственно говоря, и сам видеосигнал, наличие меток, субтитров, громкость. Кроме того, у нас на выходе уже перед самим оператором в АКВЛ еще стоит старая система мониторинга Volicon, которая тоже очень много что умеет делать. И в будущем, мы думаем, ее заменим на более прогрессивную систему, возможно, такую же, как на «СТС», пока еще не знаем, но как один из вариантов. А все остальное – то, что предоставляет система мониторинга, про которую мы, наверное, еще не поговорили, AXON. Ну, и традиционный контроль, инструментальный, с помощью приборов Tektronix – присутствует по полной программе.
Анатолий Зубашев: Как я понимаю, AXON – это как раз система мониторинга оборудования. А я имел ввиду контроль качества, файл-base.
Алексей Брусницкий: Нет, файл-base у нас есть, на самом деле установлена система автоматического контроля Baton, которая используется для разных применений, но она интегрирована либо с системой Dalet Newsroom, либо c AVID, либо с Point Master, у которой есть своя система первичного контроля (на соответствие кодекам, стандартам, которые у нас есть). Для контроля качества по громкости у нас используются системы Minnetonka, которая тоже интегрирована с нашей системой MAM Point Master.
Анатолий Зубашев: Понятно, Алексей Николаевич, спасибо большое!
Тимур Кулгарин: Да, спасибо, без системы мониторинга никакой современный комплекс представить невозможно, конечно, давайте поговорим и о ней.
Иван Ситников: Собственно, система мониторинга использована от AXON Cerebrum версии 2.0. Как я уже говорил в предыдущем докладе, на «ТВ Центр» система успешно инсталлирована на комплексе синхронизации, поэтому было принято решение расширить влияние. Как вы понимаете, вещательный комплекс – это симбиоз разнородного оборудования, которое необходимо мониторить. Физически – это 14 стоек, в которых больше 300 модульных устройств. Ну, и естественно, набирается некоторый объем устройств от разных производителей, каждый из которых предоставляет свой инструментарий для контроля и настройки. Для того, чтобы упростить инженеру жизнь, и используется AXON, который позволяет в одном интерфейсе производить мониторинг состояния всего оборудования, которое есть на комплексе.
Как и все системы, которые использовались в проекте, системма не привязана к оборудованию. То есть это просто программное обеспечение, которое ставится на сервера. Решение работает в режиме отказоустойчивости, то есть два независимых сервера баз данных и два сервера приложений, которые собирают всю информацию с устройств, записывают их в базу данных, и дальше уже тонкие клиенты подключаются к серверу приложений и производят отображение актуальной информации. Ключевой момент – все устройства управляются по IP.
Я сразу перейду к тому, как это выглядит. Цвет канала обозначает его состояние, если зелененький, значит, все хорошо, если что-то нужно посмотреть детально, или вы видите ошибку, вы кликаете по каналу и попадаете в тракт. То есть здесь физически разрисован тракт, который показывали в предыдущих презентациях, прохождение сигнала. И все устройства, которые участвуют в тракте, заведены в систему, то есть часть из них заведены непосредственно через API доступ, часть из них собирают в тракт по SNMP, часть как уже говорилось, через плагин, дописанный по HTML. Вплоть до того, что непосредственно из этого интерфейса есть возможность управлять устройствами, то есть, допустим, чендж-овер можно переключить непосредственно отсюда на тот или иной источник сигнала.
И все устройства, которые участвуют в тракте, заведены в систему, то есть часть из них заведены непосредственно через API доступ, часть из них собирают в тракт по SNMP, часть как уже говорилось, через плагин, дописанный по HTML
Если меняется состояние устройств, оно тут же отображается в диаграмме. И вот, допустим, здесь пропала система графического оформления Expression, вы видите, что отображается статус «Нет подключения», он сразу метится красным, и также LGK сообщает о том, что пропал сигнал с устройства графического оформления. Соответственно, дальше можно предпринять действия, так как у нас есть два тракта, можно перейти на бэкап и избежать проблем в эфире. Собственно, здесь представлены различные доступы к самим устройствам. Как я уже сказал, каждое устройство, заводимое в систему, имеет набор доступных конфигураций, в частности, можно изменить: «включить-выключить логотип», «переключить входы-выходы на устройствах» – вся настройка и управление оборудованием происходит через единый интерфейс. Ну и, так как все оборудование подключено к системе, все события, которые происходят с устройствами, они логируют.
Дополнительный функционал – это возможность просматривать состояние матричного коммутатора, здесь представлен интерфейс управления матричных коммутаторов. То есть можно как текущий запрос снять, так и изменить, если это необходимо. Два вида управления, кому как удобнее. Собственно, дерево устройств. Здесь отображаются все устройства, которые подключены к системе. Они сгруппированы по каналам. То есть можно посмотреть справа список тех устройств, которые относятся к одному каналу, к одной ветке канала. По требованиям выпускающих, сохранились физические кнопки. Кнопки чем управляют? Чендж-овером, снятием и выдачей логотипа. И для того, чтобы сделать места перемещаемыми, гибкими, мы вышли из ситуации следующим образом: кнопки физически по GPI подключаются к TALLYMAN и дальше TALLYMAN через IP подключается к Cerebrum. Тем самым, мы буквально, настраивая в Cerebrum связку, можем любую панель переключить на любое рабочее место. В итоге, негибкая связь старых GPI преобразовательных протоколов получилась гибкой.
Алексей Брусницкий: Это единственный момент, где есть GPI?
Иван Ситников: Да.
Алексей Брусницкий: Для физических кнопок, к сожалению, другого пока не сделали наши коллеги.
Тимур Кулгарин: И то, фактически конвертируется в IP при этом.
Иван Ситников: То есть, несмотря на то, что GPI, все равно мы на выходе получаем IP.
Тимур Кулгарин: Нужна какая-то кнопочная панель с IP-интерфейсом, и тогда можно без TALLYMAN.
Иван Ситников: Да, в принципе. Но, к сожалению, сейчас таких хороших панелей нет.
Алексей Брусницкий: Но TALLYMAN используется не только для преобразования в IP GPI. Реализована трудовая схема: основной, резервный и сигнализация с эфире. Это очень сильно помогает выпускающим и по сути защищает от человеческих ошибок.
Иван Ситников: TALLYMAN был в проекте, он просто исполняет еще и связку с аналоговыми интерфейсами. Хотел бы закончить свой доклад тем, что продемонстрировать. Видно, надеюсь, экран?
Тимур Кулгарин: Виртуальный тур, да.
Голос из зала: Вань, а Grass Valley матрица по какому протоколу дружит с AXON?
Иван Ситников: По-моему, как раз по GV-шному протоколу родному, ну, то есть по Thomson.
Тимур Кулгарин: А кроме SNMP, он какие-нибудь проприетарные протоколы мониторинга управления поддерживает?
Иван Ситников: Очень много драйверов, практически 70% устройств, которые были, есть драйвера непосредственно.
Голос из зала: У меня есть пара архитектурных вопросов, если позволите, к Алексею Николаевичу.
Алексей Брусницкий: Да, я слушаю.
Голос из зала: Спасибо за развернутую презентацию, очень классно и видно, что она проработана, сделано много труда. Вот у вас построен классический тракт, но вы обмолвились о том, что в процессе реализации вы все-таки поставили один «канал в коробке». Для будущего или перспективного развития вы бы выбрали «каналы в коробке» или же классическое построение тракта с отдельно стоящим оборудованием?
Алексей Брусницкий: Все зависит от ваших задач. Если у вас федеральный канал, который насыщен новостями и прямыми включениями, то вам некуда деваться – придется делать классический канал, потому что требования для него более высокие. Если у вас нишевый канал, как мы делали, то можно пожертвовать некоторыми требованиями и сделать «канал в коробке», который экономически выгоден.
Голос из зала: Понятно, спасибо. И второй вопрос про систему автоматизации: вы сказали, она может быть виртуализирована и не обязательно привязываться к серверам. Почему все-таки вы не объединили современные технологии и девайс-контроллеры, системы автоматизации, и не поставили в виртуальную среду, для простоты использования и.т.д.?
Алексей Брусницкий: Ну, на самом деле, виртуализация и подъедает ресурсы, поэтому ставить ее надо там, где это действительно необходимо. Вот в случае «СТС» это было необходимо и оправдано. В нашем случае, на мой взгляд, нам едва хватало производительности железа, чтобы обеспечить выполнение наших требований.
Во-вторых, я еще раз скажу, у нас не было задачи наращивать каналы, канал за каналом. У нас были жесткие требования к задержкам, у нас жесткие требования к прямым включениям, и поэтому мы понимали, что мы просто не сможем это реализовать на сегодняшний момент. Вернее, на тот момент, когда мы это проектировали. К сожалению, конкурсные процедуры нас заставляли это делать фактически в 2015-ом году, когда мы стартовали. И не менять потом, хотя, честно сказать, мы немножко поменяли, подправили, но это было очень тяжело. Практически то, что мы заложили в 2015-ом году, мы должны были реализовать.
виртуализация и подъедает ресурсы, поэтому ставить ее надо там, где это действительно необходимо
Голос из зала: Спасибо. Инженерную мысль ограничивают реалии.
Алексей Брусницкий: Во всем нужен компромисс.
Тимур Кулгарин: Коллеги, мне кажется, что тема необъятная. Поэтому я призываю всех, у кого есть конкретные вопросы или кто хочет углубиться в какие-то отдельные части этой всей схемотехники, писать на почту ТКТ: tkt1957.awards@gmail.com, и мы, соответственно, будем пытаться организовать специализированные сессии по отдельным вопросам.
Хотел бы еще раз напомнить, что наш генеральный партнер – Vidau Systems, также наши партнеры: Riedel, Haivision и Grass Valley. Всем огромное спасибо за участие, докладчикам двойное спасибо за интересные доклады. Пишите, связывайтесь с организаторами, будем работать для вас.
Алексей Брусницкий: Еще можно пару слов, огромное спасибо, конечно, всем, кто смотрел, кто задавал вопросы, кто участвовал в этом проекте, но особое спасибо хочу сказать Тимуру Кулгарину, который замечательно ведет эти круглые столы, и в будущем было бы прекрасно видеть его в этом амплуа. Спасибо, Тимур!
Тимур Кулгарин: Алексей, спасибо на добром слове, и также благодарность ТКТ, как организаторам, ГИТР, как техническим партнерам. Отдельное спасибо режиссеру трансляции Артему Соловьеву. До новых встреч, друзья!