Облачная платформа Synamedia Cortex: резервирование, CDN и доставка видео

Интервью с Тимуром Юсуповым, Pre-Sales Engineer Synamedia, о том, как операторы платного ТВ и OTT используют Synamedia Cortex для перегонов, мульти-CDN и отказоустойчивого вещания без полной перестройки инфраструктуры.

 

КТО ТАКИЕ SYNAMEDIA

– Для многих название Synamedia всё ещё не на слуху. Почему так?

К сожалению, компания Synamedia не так известна на нашем рынке, как могла бы быть. Причина в том, что долгое время мы находились «за ширмой» крупного бренда. Уже больше 30 лет мы занимаемся доставкой, компрессией, передачей и защитой видео.

– С чего всё начиналось?

История идёт с 1988 года — с создания компании News Datacom. Кто-то, возможно, помнит это название. Позже она была переименована в NDS. NDS до сих пор используется, например, в Castile Radio — это система закрытия видеоконтента.

 

ОБЪЕДИНЕНИЯ, ПОКУПКИ И CISCO

– Как из этого выросла нынешняя Synamedia?

Со временем начались слияния и поглощения. В структуру нынешней Synamedia, например, вошла компания BarcoNet. Потом была Scientific-Atlanta, которую купили.

А затем все эти компании были приобретены Cisco.

– И тут вы «пропали из виду»?

По сути — да. Когда Cisco купила весь этот видеобизнес, мы фактически оказались внутри большого сетевого вендора. Cisco активно продавала своё сетевое оборудование, но видеонаправление, особенно в нашем регионе, развивалось не так активно. До 2020 года здесь вообще не было ни одного человека, который бы официально отвечал за видео-направление Cisco / Synamedia. Мы существовали, но нас почти не было видно.

 

ОТ CISCO К НЕЗАВИСИМОЙ SYNAMEDIA

– Как произошёл переход к независимой компании?

Через несколько этапов трансформации Cisco приняла решение выделить видео-направление в отдельную структуру. Так появилась самостоятельная компания Synamedia. Сейчас мы уже несколько лет работаем как полностью независимая компания. И занимаемся только вопросами, связанными с доставкой видео — от захвата и обработки до защиты и монетизации.

 

СТРУКТУРА SYNAMEDIA: ТРИ НАПРАВЛЕНИЯ

– Из чего сегодня состоит Synamedia как структура?

В компании три больших подразделения.

Первое — Video Network. В нём работаю я и мой коллега Андрей.

Второе — Media Technologies.

Третье — Media Cloud Services.

 

MEDIA TECHNOLOGIES И MEDIA CLOUD SERVICES

– В чём разница между Media Technologies и Media Cloud Services?

Media Technologies занимается, грубо говоря, более «классическим» вещанием. Это: смарт-карты для set-top box, классическое middleware, традиционные решения для операторов платного ТВ.

Media Cloud Services — это всё, что связано с облачными платформами: облачные решения для стриминга, скремблирование и DRM, аналитика по доставке видео и поведению зрителей, рекламные технологии.

– Можно чуть подробнее про рекламу?

В рамках Media Cloud Services есть продукт IRIS. Это, по сути, комплексный рекламный комбайн: от планирования рекламной кампании до подготовки рекламных ассетов  и точной вставки рекламы в нужный момент и в нужном месте. То есть это не просто «вырезать и вставить ролик», а полноценная платформа управления рекламой поверх видеосервиса.

 

VIDEO NETWORK: ЧТО МЫ ДЕЛАЕМ ПОСЛЕ ПРОДАКШЕНА

– Мы уже поговорили о Media Cloud Services и рекламе. Что такое направление Video Network?

Если коротко, Video Network — это всё про доставку контента. Мы занимаемся:
– point-to-point и B2B-доставкой;
– классическими линейными схемами;
– магистральной первичной дистрибуцией.

Важно, что мы не занимаемся продакшеном, в отличие от некоторых компаний, представленных сегодня. Мы подключаемся после продакшена.

Помогаем организовать «перегон» сигналов, первичную дистрибуцию контента:
– DTH-операторам,
– OTT-платформам,
– стриминговым сервисам,
– а также доставку через интернет с использованием CDN.

 

МАССШТАБ: СКОЛЬКО ТРАФИКА И ЗРИТЕЛЕЙ

– Можно немного цифр, чтобы понять масштаб?

Хотя бренд Synamedia не всегда на виду, объёмы очень серьёзные. Больше 100 Тбит/с видео трафика в пике проходит через спутник с использованием нашего оборудования. Сейчас более 100 миллионов абонентов по всему миру смотрят телевидение и видео, в тракте которого так или иначе участвуют наши решения.

 

КТО НАШИ КЛИЕНТЫ

– Для кого вы всё это строите?

В первую очередь — для традиционных вещателей. Мы работаем:
– с классическими телеканалами и сетями;
– с контент-провайдерами;
– с операторами платного ТВ (Pay TV);
– с правообладателями, особенно в спорте;
– со стриминговыми операторами, которым нужна стабильная OTT-доставка.

То есть наши клиенты — это весь спектр: от владельца прав на спортивную лигу до кабельного оператора и крупного национального телеканала.

 

КУДА СМОТРЯТ ВЕЩАТЕЛИ И ОПЕРАТОРЫ

– Какие тренды вы видите в поведении заказчиков? Во что они инвестируют?

Если по сегментам, картина такая. 

Традиционные вещатели:
– всё активнее уходят от чисто классического эфирного вещания;
– смотрят в сторону IP и доставки через CDN;
– добавляют или строят параллельный IP-тракт.

Pay TV-операторы:
– прямо сейчас мигрируют от «железных» классических хэдэндов;
– сначала переходят на программные (software-based) решения on-prem;
– затем двигаются в сторону облачных сервисов.

Кабельные операторы:
– активно разворачивают доставку по IP в своей сети;
– HFC-сети постепенно вытесняются схемами «оптика до дома» (FTTH), и это меняет архитектуру.

 

КАНАЛЫ ИДУТ В СТРИМИНГ

– А что происходит на стороне самих телеканалов?

Почти каждый серьёзный телеканал сегодня имеет собственную онлайн-платформу или приложение. Это уже норма: вещатель хочет доставлять тот же контент, который идёт в эфире, и напрямую в интернет. Это один из самых устойчивых трендов, который мы видим.

 

ОТ СПУТНИКА К IP И MULTI-BITRATE

– Вы упоминали смену схем регионализации. Что это за кейс?

Один из крупнейших вещателей в Северной Америке полностью пересматривает схему доставки регионального контента. Раньше классическая модель выглядела так:
– через спутник доставляется множество региональных версий;
– регионализация делается в разных точках, много «разветвлённой» инфраструктуры.

Это дорого и неэффективно.

Сейчас они смотрят в сторону:
– миграции на IP-доставку,
– использования CDN и IP-сетей вместо спутниковых «вееров»,
– перехода на мультибитрейт (adaptive bitrate), чтобы оптимально обслуживать разные устройства и качества.

И вот как раз здесь мы и подключаемся — со стеком Video Network, который позволяет плавно уйти от чисто спутниковой модели к гибридной или полностью IP-архитектуре, без потери надёжности и управляемости.

 

CDN: ОТ СОБСТВЕННЫХ СЕТЕЙ К ГИБРИДНЫМ МОДЕЛЯМ

– Вы затронули тему CDN. Что там меняется сейчас?

Региональный контент всё чаще доставляется уже не старыми схемами, а совсем новыми технологиями. По CDN мы видим интересный двусторонний тренд.

С одной стороны, операторы, которые раньше пользовались только собственной CDN внутри своей сети, вдруг понимают, что им нужно расширять сервис за пределы своей территории,
выходить в другие страны или регионы, и им приходится подключать публичные CDN как партнёров. С другой стороны, те, кто раньше пользовался только публичными CDN «как сервисом», теперь замечают, что у них есть сегментация аудитории.

Им выгоднее: либо строить свой CDN-слой под конкретную страну, либо арендовать специализированную CDN в определённом регионе. Такую гибридную модель мы, например, наблюдаем в Италии. Часть трафика идёт через собственные ресурсы, часть — через публичные CDN, и всё это управляется как единый сервис.

 

ПЛАТФОРМА CORTEX: ДЛЯ ЧЕГО ОНА НУЖНА

– Перейдём к вашим решениям. Что такое Cortex и откуда он появился?

Cortex — это наше зонтичное название для платформы управления и оркестрации сервисов доставки видео. Мы, как Synamedia, позиционируем себя как компанию, которая помогает трансформировать или мигрировать сервисы в облако — но без фанатизма. То есть мы не говорим: «Завтра всё в cloud, иначе вы отстали». Мы смотрим на экономику и на реальные задачи. Если облако действительно необходимо или экономически оправдано — мы помогаем мигрировать. Если нет — можно оставаться на традиционных решениях, которые мы продолжаем поддерживать.

 

ЖЕЛЕЗО, СОФТ И ВИРТУАЛИЗАЦИЯ

– У вас по-прежнему есть «железные» решения или всё уже только в софте?

Есть и то, и другое. Во-первых, у нас остаются классические апплиансы — аппаратные решения: «железка» плюс предустановленный софт, есть порты, есть понятная схема подключения — многие операторы это любят.

Но на этом железе крутится ровно тот же софт, который может работать в вашем собственном дата-центре, в виртуализированной среде, в частном или публичном облаке.

Если у вас уже есть свой дата-центр, иногда просто нет смысла покупать отдельное железо.
Можно взять только программную часть, развернуть её у себя — и получить тот же функционал.

Фактически, первый шаг миграции — от чистого «железа» к виртуализированным софт-решениям.

 

ОБЛАЧНЫЕ СЕРВИСЫ: SELF-SERVICE И MANAGED

– А как выглядят ваши облачные сервисы? Все ли они «делай сам»?

Облака бывают разные — и сервисы в них тоже. 

Есть модель self-service: у заказчика есть веб-интерфейс, есть набор инструментов, он сам конфигурирует сервис, как с обычным оборудованием.

А есть managed service: у нас есть глобальный круглосуточный операционный центр, наши сервисные инженеры настраивают всё за вас, мониторят, управляют, масштабируют. В такой модели клиент сосредоточен на бизнесе: например, ему нужно просто «перегнать» сигнал из точки А в точку Б, или обеспечить доставку матча, турнира, канала. А всё, что касается настроек, качества, резервирования, SLA — остаётся на нашей стороне.

– То есть это что-то вроде «транспорт под ключ»?

Именно. У нас есть реальные заказчики, которые пользуются таким сервисом: формулируют задачу по контенту и географии, а техническую часть полностью отдают нам. Есть и третий вариант — гибрид: часть функционала клиент ведёт сам, часть — отдаёт нам как managed-сервис.

Выбирается модель, которая оптимальна по деньгам, компетенциям и срокам запуска.

 

ГИБРИДНЫЕ МОДЕЛИ: «ВСЁ У СЕБЯ, НО НА ВАШЕМ СОФТЕ»

– А если заказчик не хочет отдавать контроль ни над платформой, ни над инфраструктурой?

Такой вариант у нас тоже есть. Некоторые клиенты говорят прямо: «Мы не хотим терять контроль ни над чем. Мы хотим, чтобы ваш софт работал в нашем собственном облаке или в нашем сегменте глобального облака». Это абсолютно возможный сценарий.

Система в этом смысле достаточно гибкая: можно мигрировать в облако, можно не мигрировать, можно комбинировать on-prem, приватное облако и публичный cloud.

ОТ «ЖЕЛЕЗНОГО» DCM К VIRTUAL DCM И ОБЛАКУ

– За счёт чего получается такая гибкость в технологиях?

Во многом благодаря эволюции наших продуктов. Раньше была чисто «железная» система DCM — аппаратный комплекс, разработанный много лет назад.

Первый шаг — мы полностью перенесли её в софт, так появился Virtual DCM. Тот же функционал, но уже в виде программного решения, которое можно запускать на стандартных серверах.

Следующий шаг — на этих же технологиях мы построили облачные сервисы.

То есть сегодня один и тот же стек может жить на «железном» апплиансе , в виде виртуальной машины в вашем дата-центре или как облачный сервис, управляемый через Cortex.

 

VORTEX PLAY И VORTEX LINK: ЭФИР ЗА ПЯТЬ МИНУТ

– Вы упоминали, что можно «за 5 минут» поднять вещание. Как это выглядит на практике?

У нас есть self-service-сервисы.

Первый — Vortex Play. Через него за буквально несколько минут можно: подцепить видеосигнал, организовать вещание телеканала или любого контента, задать регион доставки (весь мир или конкретный регион), и посмотреть его с мобильного телефона. При нормальном интернете это реально занимает около пяти минут.

Второй сервис — Vortex Link. Это тоже self-service: быстрая настройка перегона по SRT,
например, из Германии в Японию или между двумя городами внутри одной страны. Создаёте SRT-точку входа и SRT-точку выхода — и дальше работаете как с обычным линком.

 

MEDIA EDGE GATEWAY: БОЛЬШЕ, ЧЕМ ПРОСТО РЕСИВЕР

– Давайте вернёмся к «железу». Что такое ваши ресиверы Media Edge Gateway?

Это не просто классический ресивер, это Media Edge Gateway. Он умеет принимать сигналы:
со спутника, по IP, по SRT, по Zixi (ZIGZIG/ZIXI). Дальше он декодирует их в SDI или SDI over IP.

Но важнее то, что это больше, чем «просто IRD», он умеет переключаться между разными входами, может выступать как переходный элемент от спутника к публичному интернету.

Например: сегодня вы принимаете канал со спутника. Завтра вещатель говорит: «Переходим на SRT». Вам не нужно менять железо — Media Edge Gateway уже умеет и спутник, и SRT. И наоборот, — можете комбинировать разные входы и сценарии.

 

ДИСТРИБУЦИЯ B2B: VDCM, CORTEX, POWERVIEW, CORTEX LINK

– Как это всё собирается в решения для B2B-дистрибуции?

За бизнес-to-business дистрибуцию контента через спутник или IP у нас отвечает связка VDCM + Cortex. Virtual DCM — это «двигатель» обработки, компрессии, мультиплексации. На стороне сервисов ему соответствуют Cortex PowerView и Cortex Link.

Cortex Link — это как раз self-service для транспортировки. Заказчик сам настраивает точку входа SRT и точку выхода SRT, определяете параметры, резервирование и т. д.

PowerView и другие компоненты Cortex уже отвечают за управление, мониторинг и интеграцию в общую инфраструктуру.

В итоге у заказчика есть выбор «железный» приёмник + локальный VDCM, чисто софт в своём дата-центре или связка с облачными сервисами Cortex — в зависимости от задач и бюджета.

 

CORTEX LINK: ВКЛЮЧИЛИ МАТЧ – ВКЛЮЧИЛИ ПЕРЕГОН

– В реальной эксплуатации Cortex Link — это просто «одна труба» или может быть их много?

Таких «труб» может быть сколько угодно. Можно: создать множество SRT-линков, задать для них расписание, включать перегоны только тогда, когда они нужны. Например, у вас сетка футбольных матчей — вы включаете доставку сигнала только на время матча и выключаете в остальное время. Это позволяет не держать всё постоянно «горячим» и оптимизировать затраты.

 

CORTEX POWERVIEW: MANAGED-СЕРВИС ПОД КЛЮЧ

– Чем Cortex PowerView отличается от Link?

Cortex PowerView — это более расширенный вариант. Он не только даёт инструменты по управлению потоками, но и подключает наши managed-сервисы и операционный центр.

Хороший пример — компания Hearst Networks. Они много лет назад перенесли продакшен и плейаут в облако. Но для доставки использовали публичные сети «как есть», и результат их не устроил по надёжности. Примерно год назад они объявили тендер, где искали партнёра, который:
обеспечит доставку телеканалов, возьмёт на себя техническую часть, даст им возможность сосредоточиться только на бизнесе.

Мы предложили Cortex PowerView и выиграли тендер. За прошедший год у них: ноль отказов, ноль жалоб от получателей контента. Наш глобальный операционный центр мониторит все потоки и даже предупреждает «концовую» сторону. То есть получатели контента не успевают увидеть проблему — им заранее приходит уведомление: «Возможны перебои, переключитесь, пожалуйста, на резерв». В результате Hearst, как ни странно, даже «немного недовольны» в том смысле, что им теперь совсем нечего обсуждать с нами в части инцидентов — их просто нет.

 

СТРИМИНГ: МУЛЬТИБИТРЕЙТ, CATCH-UP И TIMESHIFT

– Что по стримингу и VOD?

В стриминге мы опираемся на ту же платформу DCM / VDCM. Она позволяет:транскодировать в мультибитрейт, пакетировать потоки, записывать контент для catch-up и time-shift. На стороне Cortex этому соответствует сервис Cortex Play.

Как я уже говорил: за пять минут можно развернуть OTT-вещание в мультибитрейте, выставить географию и параметры доставки, и вывести всё это на конечных пользователей.

 

EDGE CDN SYNAMEDIA: НЕ ЕЩЁ ОДИН PUBLIC CDN

– Вы сказали, что у вас есть собственное решение для CDN. Это ещё один публичный CDN?

Нет, публичный CDN мы специально не делали — их и так достаточно. Есть Akamai, CloudFront, много локальных игроков в разных странах. Мы подошли с другой стороны.У Synamedia есть собственное Edge CDN-решение: это полнофункциональная платформа, которую можно развернуть прямо в сети оператора, и использовать для доставки контента до абонента. То есть это «ваш собственный CDN под ключ», а не ещё один глобальный сервис.

 

МНОГО CDN ВМЕСТО ОДНОГО: ГЛАВНЫЙ ТРЕНД

– Зачем тогда ещё один CDN, если уже есть крупные игроки?

Ключевой тренд такой: операторы и стриминговые платформы хотят работать не с одним CDN, а сразу с несколькими. Им нужно: распределять нагрузку между разными CDN, оптимизировать маршрутизацию и стоимость, быть независимыми от одного поставщика.

Поэтому наша задача — дать им: собственный Edge CDN в их сети, и инструменты, чтобы сочетать его с публичными CDN, управляя всем этим как единой системой доставки.

Это уже не «ещё один CDN на рынке», а архитектурный слой для тех, кто хочет контролировать и качество, и экономику доставки своего видео-сервиса.

 

МНОГО CDN ДЛЯ ОДНОГО СЕРВИСА: SKY, DAZN И ИТАЛЬЯНСКИЙ КЕЙС

– Вы упоминали, что крупные игроки уже работают сразу с несколькими CDN. Можете привести примеры?

Хорошие примеры – Sky и DAZN. Оба активно выводят спорт «из облака в дом» через интернет. Они видят, что глобальная доставка, например только через Akamai, не всегда даёт нужный результат: в каких-то регионах есть всплески спроса; в каких-то странах резко растёт аудитория именно спортивного контента.

Нет смысла в таких случаях полагаться только на глобальный CDN. Гораздо эффективнее использовать CDN, который физически и логически ближе к зрителю – в сети местного оператора.

В Италии тот же DAZN арендует CDN-инфраструктуру у Telecom Italia. А CDN в сети Telecom Italia как раз построен на решениях Synamedia.

 

CORTEX SWITCH: БЕССШОВНОЕ ПЕРЕКЛЮЧЕНИЕ МЕЖДУ CDN

– Крупным сервисам важна бесперебойность. Как организовать переключение между CDN так, чтобы пользователь ничего не заметил?

Именно для этого мы сделали Cortex Switch – это наша свежая разработка. Он позволяет абсолютно бесшовно переключаться между разными CDN.

Для зрителя это выглядит так: он начал смотреть матч через CDN Akamai; нагрузка в регионе резко выросла; оператор решает перевести пользователей на локальный CDN в сети, скажем, Telecom Italia; Cortex Switch выполняет переключение прозрачно, без разрыва и «перезагрузки» плеера.

Конечный пользователь не увидит, что в какой-то момент трафик пошёл уже через другой CDN. Мы работаем по стандартным протоколам и интегрируемся с разными CDN. Если интересно «железо и протоколы», могу после выступления рассказать технические детали.

 

ПРОДУКТ, BLUEPRINT И СЛОЖНОЕ РЕШЕНИЕ

– Вы упоминали три «ипостаси» решений Cortex. В чём разница?

Мы предлагаем решения в трёх форматах: продукты, так называемые blueprint-конфигурации и сложные (custom) решения.

Если использовать автомобильную аналогию. Продукт – это готовая машина. Вы приходите в салон, выбираете конкретную модель, садитесь и едете. Четыре колеса, руль – всё предсказуемо и стандартизовано.

Blueprint – это та же модель, но с набором опций. Вы видите список доступных опций и выбираете: эту – да, эту – нет. Машина остаётся узнаваемой, но конфигурация подстраивается под ваши задачи и бюджет.

Сложное решение – это уже не «машина из каталога», а индивидуальная сборка под конкретную задачу. Когда стандартными средствами вендоров проблему не решить, мы вместе с заказчиком конструируем архитектуру, которая будет работать 24/7. Здесь мы можем использовать и наши продукты, и решения партнёров.

В табличном виде это выглядит так: в продукте все параметры и цена заранее предсказуемы; в blueprint-подходе есть регулируемые элементы, которые можно «крутить»; в сложном решении определённости меньше, потому что каждый проект уникален, – но именно поэтому он максимально точно попадает в требования заказчика.

 

МОДЕЛИ ОПЛАТЫ: PAY AS YOU GO, ПОДПИСКА И PREPAID

– Как устроена ценовая модель?

У нас три основных варианта.

Первый – Pay as you go (PSUGO). Платите только за фактическое использование. Условно: выпили бутылку воды – оплатили её; больше не хотите – ничего не платите. Это удобно, когда оператор никогда не работал, например, в ABR или с IP-перегонами и хочет просто попробовать. Он заходит на портал, настраивает перегон, проводит тест, платит только за этот перегон и, если ему не понравилось, может просто забыть о сервисе.

Второй – ежемесячная (или годовая) подписка, Monthly Recurring. Здесь логика другая: если вы вещаете 24/7 и понимаете, что сервис будет использоваться постоянно, выгоднее перейти на фиксированную подписку. У нас есть система скидок, и в итоге постоянным клиентам подписка обходится дешевле, чем оплата по факту. Такой моделью пользуются, например, оператор Yes в Израиле и тот же Hearst Networks – для доставки каналов «точка-точка» по Европе и Африке.

Третий – Prepaid-модель. Она появилась по запросу конкретного заказчика – Olympic Channel Services.

 

PREPAID ДЛЯ СПОРТА: OLYMPIC CHANNEL

– Чем prepaid отличается от pay as you go?

Pay as you go – это абсолютно «по факту», без заранее фиксированного объёма. 

Prepaid – это модель для тех, у кого заранее известен объём событий.

Olympic Channel Services – это интернет-канал олимпийских видов спорта, базируется в Испании. Они сказали: «У нас в году есть заранее известное количество соревнований: такие-то этапы, такие-то турниры, такие-то города. Нам нужно их освещать, мы примерно знаем, сколько будет событий».

Мы специально разработали для них prepaid-модель: они заранее оплачивают известное количество событий или объём ресурса; спокойно планируют сезон; и не думают, сколько «накликают» по Pay as you go.

Для них это получилось и предсказуемо, и экономически комфортно.

 

МОДЕЛЬ ОПЛАТЫ И ВЫБОР ПРОДУКТА

– Объясните тарифную политику.

Если клиент выбирает Pay as you go, то доступны только готовые продукты. То есть то, что можно сразу взять и использовать, но нельзя гибко кастомизировать под себя. Если заказчик хочет более сложную конфигурацию, тот же blueprint или полностью кастомное решение,
то модель pay-as-you-go уже не подходит. Там появляются другие схемы ценообразования – подписка или prepaid.

Главная идея – быстро понять, какие комбинации «модель оплаты + тип решения» вообще возможны.

 

КАК РАБОТАЕТ MANAGED-SERVICE: ШЕСТЬ ШАГОВ

– Как выглядит работа с вами, если клиент выбирает управляемый сервис?

Обычно это шесть шагов.

Первый – анализ потребностей. Мы разбираемся, что именно нужно заказчику: доставка сигнала, стриминг, резервирование, география, SLA.

Второй – развёртывание инфраструктуры. Если нужно, поднимаем всё в облаке или в гибридной схеме.

Третий – интеграция. Подключаем все компоненты, в том числе сторонние решения –
в сложных проектах это почти всегда так.

Четвёртый – аналитика и отчётность. Настраиваем панели, графики, метрики в том виде,
который удобен именно этому заказчику: качество картинки, стабильность доставки, задержки и т. д.

Пятый – обучение. Мы обучаем команду заказчика и постепенно передаём им оперативное управление.

Шестой – совместное планирование развития. Наши сервисные инженеры и команда клиента вместе думают, как масштабировать сервис, какие функции добавить, куда двигаться с точки зрения технологий и бизнес-задач.

 

УРОВНИ ПОДДЕРЖКИ: ОТ ЧАТА ДО «НУЛЯ ПРОСТОЕВ»

– Поддержка всегда одна и та же или есть уровни?

Есть несколько уровней. В самом простом варианте, который частично всегда включён, если вы пользуетесь Cortex Play или Cortex Link по модели pay-as-you-go, у вас всё равно есть базовая поддержка – можно написать в чат, получить помощь. 

Но если речь идёт, скажем, о крупном спортивном событии, где допустимый downtime равен нулю, такая поддержка, конечно, недостаточна. Там нужны другие SLA, другой уровень готовности и реакции, поэтому мы переходим к более дорогим, но и более серьёзным пакетам техподдержки.

 

АРХИТЕКТУРА CORTEX: CONTROL PLANE И DATA PLANE

– Если посмотреть внутрь Cortex как облачного решения, из чего он состоит?

Компонентов несколько. Есть так называемый customer-portal и два ключевых слоя:
control plane и data plane. Control plane – это уровень управления. Data plane – это уровень, где реально обрабатывается видео. Оба этих слоя могут находиться в одном облаке, а могут быть распределены по разным площадкам – в зависимости от требований по латентности, безопасности, юрисдикции.

 

ДВА ПОРТАЛА: ДЛЯ БИЗНЕСА И ДЛЯ ТЕХНИКИ

– Что видит бизнес-пользователь и что видит инженер?

Условно есть два портала.

Первый – бизнес-портал (customer portal). Это базовая веб-страница, где есть: логины, пароли, биллинговая система, отчёты по использованию. Это инструмент управления именно бизнес-частью сервиса: кто подключен, сколько потребил, сколько стоит.

Второй – портал приложений Cortex Applications. Там уже настраиваются сами сервисы:
точка–точка (point-to-point), стриминг, перегоны, профили, резервирование и т. д. Это рабочее место инженера или продвинутого оператора.

 

DATA PLANE: ГДЕ ЖИВЁТ ВИДЕО

– А что происходит на уровне data plane?

В data plane разворачиваются наши технологические компоненты. Там могут работать: модули Just-in-Time обработки, Virtual DCM, компоненты сторонних производителей, если того требует архитектура, а также слой управления облачной инфраструктурой.

Последнее важно для динамического масштабирования. Например, вырос трафик на матче – Cortex автоматически поднимает больше ресурсов. Событие закончилось – ресурсы освобождаются. Вся эта часть «под капотом» не требует вмешательства заказчика – он видит только стабильную доставку контента и контролирует сервис через порталы.

 

ПРОДУКТЫ: ВСЁ УЖЕ СОБРАНО И АВТОМАТИЗИРОВАНО

– Если говорить только о продуктах, вроде Cortex Link и Cortex Play, что получает оператор «из коробки»?

В случае продуктов всё уже реализовано нашими инженерами и службой поддержки.Это наша облачная инфраструктура, в которой крутится софт, полностью автоматизировано развёртывание, настроены процессы масштабирования и мониторинга.

С точки зрения пользователя это выглядит просто: через API или веб-интерфейс он нажимает «создать точку» – и автоматически в облаке поднимается нужный инстанс, накатывается ПО, выполняется конфигурация, и сервис готов к работе.

Оператор управляет только сервисом, а не инфраструктурой.

 

BLUEPRINT: ВАШ DATA PLANE В ВАШЕМ ОБЛАКЕ

– Чем blueprint отличается от чистого продукта?

Логика похожа, но появляется дополнительная гибкость.

В blueprint-схеме control plane и портал могут жить у нас, а data plane, то есть функции обработки видео, мы можем развернуть в облаке заказчика или в его сегменте глобального облака.То есть все те же технологии Cortex и Virtual DCM работают уже не в «нашем» облаке, а в том окружении, которое оператор сам арендовал или контролирует.

 

СЛОЖНЫЕ РЕШЕНИЯ: MULTI-TENANT, ОБЩИЕ И РАЗДЕЛЁННЫЕ КОНТУРЫ

– А как выглядят самые сложные проекты?

Там вариантов очень много. Может быть единый control plane в режиме multi-tenant для группы клиентов, с последующим логическим разделением по заказчикам; общий customer-portal на нашей стороне, потому что биллинг и сводная аналитика мы должны контролировать сами.
А портал управления приложениями может быть как наш, так и полностью в аккаунте заказчика в его облаке. Здесь комбинации действительно очень разные: какие-то вещи мы держим у себя,
какие-то — полностью отдаём в контур клиента.

 

КТО ОПЕРИРУЕТ СИСТЕМОЙ

– Кто фактически управляет системой в разных моделях?

— В случае продуктов оперирует системой сам оператор. Synamedia сюда не вмешивается в ежедневную эксплуатацию, мы только предоставляем автоматизированную инфраструктуру и техподдержку.

В варианте blueprint оператор также сам конфигурирует сервисы. Но появляется опция: наши инженеры могут помогать в настройке, плюс можно подключить наш NOC для проактивного мониторинга.

В сложных решениях операционное управление всегда на стороне заказчика. Вся инфраструктура может быть полностью под его управлением. Но мы можем подключиться как партнёр: мониторить, предупреждать, консультировать.

Каждый такой проект уникален, и модель взаимодействия тоже каждый раз настраивается отдельно.

 

ТРЕУГОЛЬНИК: БЫСТРО, УПРАВЛЯЕМО, ЭКОНОМИЧНО

– Вы упомянули свою версию классической формулы «быстро, качественно и дёшево – выберите два». Как это выглядит в вашем случае?

У нас немного другая триада: быстро, управляемо и эффективно по цене.

Продукт – это самое быстрое решение, входной порог по цене минимальный,
– можно буквально за 5 минут организовать вещание канала или перегон. Но при этом продукт не рассчитан на нетиповые, сильно кастомные задачи — он даёт стандартизованный, предсказуемый функционал. Blueprint – это шаг в сторону управляемости и гибкости: чуть дольше по запуску, чуть сложнее по конфигурации, но гораздо лучше адаптируется под инфраструктуру и процессы конкретного оператора.

Сложные решения – это максимум управляемости и адаптации: архитектура под конкретную задачу, использование разных технологий и партнёров, оптимизация экономики под конкретный бизнес-кейс. Они требуют больше времени и большей проработки, но именно в этом сегменте мы вместе с заказчиком можем выжать максимум из технологий, бюджета и тех ограничений, в которых он живёт.

– То есть логика такая: хочешь быстро попробовать – бери продукт; хочешь свой контур и контроль – blueprint; хочешь «идеально под себя» – идём в кастомные решения?

Да, примерно так. Главное, что у оператора есть выбор. Мы же можем работать во всех трёх форматах, в зависимости от того, на какой стадии он сейчас находится и какие задачи реально нужно решать.

Окей, давай сделаем аккуратное, «журнальное» редактирование без воды и повторов. Вот переработанный фрагмент про blueprint и резервирование как нормальное интервью с подзаголовками.

 

Продукты, blueprint и кастомные решения

– Если стандартного продукта уже не хватает, что дальше?

Тогда мы переходим к формату blueprint. Продукт – это готовое решение: быстро, недорого, но без глубокой кастомизации. Если нужно «взять и поехать» – это самый простой вариант, за пять минут можно запустить канал или перегон.

Blueprint стоит дороже, но позволяет адаптировать базовое решение под заказчика: добавить нужные опции, учесть особенности сети, подстроить архитектуру.

Если и этого недостаточно, переходим к сложным (кастомным) решениям. Это уже небыстро: анализируем задачу, проектируем архитектуру вместе с заказчиком, доводим до результата, который точечно закрывает его требования.

Зато в итоге система работает ровно так, как нужно конкретному оператору.

 

Требования к резервированию: спорт и «обычное» вещание

– Насколько разные бывают требования к резервированию?

Очень разные. У одного и того же оператора могут быть каналы, у которых даунтайм недопустим вообще (спорт, прямые трансляции). И каналы, где остановка на минуту–две некритична (сериалы, плейлистовый контент).

Для футбольного матча даже минутный перерыв – катастрофа. Для линейного канала с сериалами – это неприятно, но переживаемо. Под эти сценарии мы и подбираем тип резервной головной станции в облаке.

 

Три уровня резервной головной станции в облаке

– Какие варианты резервной головной станции вы выделяете?

Мы используем три основных модели:

  1. Холодный резерв (cold standby)
  2. Резерв в режиме ожидания (standby)
  3. Тёплый резерв (warm)
    И отдельно – актив–актив.

 

Холодный резерв: поднять с нуля за 15 минут

– Что такое «холодный» вариант?

В холодном режиме резервной станции как таковой в этот момент нет. У нас есть: сохранённая конфигурация, API для автоматического развёртывания.

При аварии мы автоматически копируем конфигурацию с основной системы, поднимаем инфраструктуру в облаке, накатываем софт и запускаем сервис. В результате резервный хедэнд может быть поднят с нуля примерно за 15 минут. Это подходит тем, для кого такой даунтайм приемлем.

 

Режим ожидания: запустить за несколько минут

– Чем отличается резерв в режиме ожидания?

В standby-режиме резервная головная станция уже развернута. Все входящие каналы заведены и мониторятся – мы заранее знаем, что сигнал на входе есть. В момент аварии мы только запускаем нужные сервисы, и переключение занимает уже не 15 минут, а считаные минуты.

 

Тёплый резерв: сначала низкий битрейт, потом масштабирование

– А тёплый резерв?

Тёплый резерв нужен там, где важна очень быстрая реакция, но при этом есть желание экономить на облаке.

Схема такая:
– мы мониторим все входы,
– заранее транскодируем только самый низкий профиль ABR,
– не гоняем полный набор битрейтов во втором контуре.

В случае аварии:
– мгновенно переключаем вещание на резерв,
– пользователь сразу получает картинку в низком качестве,
– система автоматически масштабируется и за примерно минуту поднимает остальные профили.

То есть зритель не остаётся без картинки вообще, а качество дорастает вслед за масштабированием.

 

Active–active: полное дублирование

– Когда нужен актив–актив?

Active–active – это полный дубль.

Обе головные станции работают параллельно:
– все входы мониторятся в двух контурах,
– все сервисы активны в обоих окружениях,
– есть возможность мгновенного переключения без потери сервиса.

Это самый дорогой, но и самый надёжный вариант. Его выбирают там, где цена ошибки максимальна – прежде всего для топового спорта и премиальных событий.