«Умный» цирк

Логотип компании
«Умный» цирк
Сегодня каждое наше шоу снимаем с разрешением 4K, а еще думаем о том, чтобы проводить съемку в 3D.

Цирковое искусство имеет многовековую историю, однако современный цирк немыслим без применения информационных технологий. Световое, звуковое и проекционное оборудование, создание видеоконтента, онлайн-продажа билетов и многое другое работает под управлением ИТ-решений. Несколько лет назад в Большом московском государственном цирке на проспекте Вернадского появилось новое руководство в лице братьев Эдгарда и Аскольда Запашных, которые прекрасно понимали важность ИТ для успешной работы и приумножения популярности этого любимого многими поколениями россиян легендарного места. В результате за короткий срок был построен центр обработки данных и реализовано много других проектов. О них нам рассказал Константин Белинский, начальник отдела ИТ и компьютерного обеспечения Большого московского государственного цирка на проспекте Вернадского.

С чего начался процесс информатизации цирка?

Все началось с того, что в Цирк на проспекте Вернадского пришли новые руководители — братья Эдгард и Аскольд Запашные. Все, кто бывал на их шоу, знают, что с точки зрения постановки это очень крутые спектакли, ничем не уступающие лучшим мировым образцам. Но наш российский цирк обычно придерживался классических традиций, сложившихся еще в начале XX века. Запашные же стараются внести современную струю, превратить представление не просто в набор номеров и реприз, а в экшен, с четкой сюжетной линией, в том числе и с продолжением. Сейчас они еще продвигают идею с пересечением сюжетных линий представлений в Цирке на проспекте Вернадского и в Цирке братьев Запашных, это, кстати, две абсолютно разные структуры.

Теперь о том, что касается ИТ. Раньше в цирке могли сломаться все компьютеры, но ни зрители, ни артисты ничего бы не заметили. Дело в том, что прежде у нас работало шесть световых пушек и каждую из них обслуживал отдельный человек, а также существовало несколько световых приборов, регулируемых с механического пульта. С приходом Запашных появилось около трехсот электронных осветительных приборов, управляемых с единого пульта. Вся схема освещения моделируется в 3D-программе, в которой выстраивается вся световая нагрузка и заранее просчитываются все детали. Мы знаем, где будут находиться артисты, поэтому световые приборы автоматически перемещают фокус, следуя за ними. Для того чтобы все это реализовать, нужна сложная распределенная сеть, охватывающая весь зал. Не только свет, но и звук у нас управляется в автоматическом режиме. Еще одна наша достопримечательность — светодиодный экран на 360 градусов, освещающий по кругу весь купол.

Это лишь пара примеров, демонстрирующих, насколько нам удалось продвинуться в технологическом плане.

Что представляла собой ИТ-инфраструктура Цирка на проспекте Вернадского до прихода новой команды руководителей?

Практически ничего не было. Только один сервер видеонаблюдения и маленький сервер управления пользователями, а также небольшой прокси, который раздавал Интернет. Иными словами, было всего два компьютера. Запашные сказали: «Давайте делать все по-нормальному». С этого и началось. Одной из первых идей стало создание медиаархива.

Дело в том, что раньше существовали какие-то записи представлений, но они были достаточно разрозненными и хранились в различных местах, у кого-то на жестких дисках, где-то еще... Сейчас мы внедряем единый медиаархив, где можно проиндексировать все фото, видео и аудио, чтобы при необходимости найти информацию о человеке, дате, событии. Сегодня каждое наше шоу снимаем с разрешением 4K, а еще думаем о том, чтобы проводить съемку в 3D. Причем работает не один оператор, а сразу 5–10 камер, распределенных по залу. Один день мы снимаем с кранов, другой — со стедикамов, третий — с направленных статичных камер. Затем весь материал монтируется в единый фильм и хранится в нашей ИТ-инфраструктуре. Мы пришли к выводу, что неплохо бы построить для этого центр обработки данных. И не просто серверную с парой стоек, а действительно отказоустойчивую систему. Как я уже говорил, у нас многое управляется в автоматическом режиме, оборудования немало, и оно достаточно сложное. Вот для этого нам и необходима отказоустойчивость. Был случай, когда у нас отключилась одна из веток электричества, но оставалось еще три. Если бы не автоматическая система переключения электропитания, все могло бы закончиться очень плохо — во время шоу просто погас бы свет в зале. У нас сегодня подведено к Цирку 4 луча электричества общей мощностью 3000 КВа, мы, как потребитель, можем сравниться с маленьким городом. Дело в том, что в советское время Леонид Ильич Брежнев очень большое внимание уделял Цирку на проспекте Вернадского, поскольку первый муж Галины Брежневой, Евгений Милаев, был его директором. Мы, кстати, сейчас готовим большую статью про наш Цирк для Википедии, поскольку там, как оказалось, почти ничего про него не написано.

Как организовано хранение материалов вашего медиа-архива?

Исходные материалы в 4K хранятся только до монтажа. Затем мы оставляем смонтированную основную и режиссерскую, то есть более полную версию. Их мы будем распространять на DVD и BluRay, а также по модели цифровой дистрибьюции с выходом на Google, Apple и других глобальных продавцов контента. Сейчас думаем над тем, как лучше использовать наши видеоматериалы. С одной стороны, можно отдать их в общий бесплатный доступ, с другой — к нам ведь и зритель должен приходить. Еще одна идея — записывать репетиции, которые тоже очень интересны. Недавно мы завели свой аккаунт в Periscope, в котором транслируем много ярких моментов. Вся медийная составляющая у нас очень активно развивается.

Храним мы все это на обычных жестких дисках, поскольку нам требуется не высокая скорость, а большой объем. Наша дисковая система ориентирована на два типа данных. Первый — SAS-диски, предназначенные для серверных и сервисных функций, а второй — обычные SATA-диски, которые мы используем для хранения видеоконтента и пользовательских данных.

С чего начался проект по построению ЦОДа?

Мы предполагали, что будем делать всё за свой счет, поэтому запланировали совсем небольшой ЦОД на четыре стойки. Но тут, как нельзя кстати, подоспело Правительство Москвы, которое выделило средства на реконструкцию КТП, системы видеонаблюдения и постройку ЦОДа. В связи с этим мы решили реализовать не только необходимый миниммум, но и более масштабный проект с заделом на будущее. Пока у нас в ЦОДе половина стоек пустует, но уже в ближайшее время мы планируем увеличить число дисковых массивов.

ЦОД нам помогали строить два ключевых партнера — вендор Huawei и подрядчик «Ай-Теко». Как вы, наверное, знаете, главное в государственных проектах — жесткое соблюдение даты готовности, а также отложенное финансирование. Не все подрядчики и производители были к этому готовы. Нам следовало успеть к концу августа, а на дворе уже стоял апрель. За имеющееся время требовалось переработать всю документацию, которая охватывала уже 10 стоек, новую систему электропитания, кондиционирования, новое помещение и т. д. Узнав об этом, многие отказались. Однако компании Huawei и «Ай-Теко» гарантировали нам, что все успеют сделать к сроку. Причем все оборудование оперативно поставили из Китая. Москва выделила нам финансирование, которым мы могли сами распоряжаться, чего нам не очень хотелось, или найти исполнителя. В качестве такового выступил Департамент ТЭК Москвы. Почему он? Потому что в проект еще была заложена перестройка четырех наших электрических подстанций. Организацией конкурса и выбором поставщика и подрядчика занимались именно они. Мы же просто сформулировали свои требования. Могу сказать, что Huawei был выбран в первую очередь благодаря ценовому фактору.

Каким образом удалось все так быстро сделать?

Прежде всего, благодаря системному интегратору и моим ребятам, которые работали буквально не покладая рук. При этом цирк не закрывался, все представления шли в обычном режиме. Зрители даже не предполагали, какая огромная работа кипела за кулисами.

Что сейчас в техническом плане представляет ваш ЦОД?

Ядро нашего ЦОДа поддерживает 160 Гбит, все связи между серверами и коммутационным оборудованием обеспечивают 20 Гбит, мы используем блейд-серверы, причем половина корзин еще свободна, поэтому, как только потребуется, сможем добавить новые. Дисковые массивы также представляют широкий простор для масштабирования, которое можно осуществлять, не меняя основное ядро, а просто расширяя узлы.

Вся система полностью дублирована. У нас два мощных источника питания, все серверы зарезервированы. Часть оборудования отведена под резервное копирование. Что касается сервисов, то самое главное — это поддержка офисных пользователей, системы медиаархива, о которой я уже говорил, системы видеонаблюдения на 300 камер, а также цифровой телефонии. Кстати, о телефонии. Когда я пришел сюда работать, здесь было около 60 телефонных аналоговых линий, причем все они выходили напрямую в город. Люди звонили из кабинета в кабинет по городскому телефонному номеру. Мы внедрили IP-АТС со всем стандартным набором функций. Завели в наш ЦОД нескольких интернет-провайдеров, чтобы добиться отказоустойчивости по каналам, и перенесли в него всю систему продажи билетов, которой у нас раньше просто не существовало. Мы продавали билеты только в кассах либо через агентов, главным из которых был Ticketland, а теперь у нас есть собственная система, и агенты уже подключаются к ней. Пожалуй, единственный сервис, который находится за пределами ЦОДа, — наш интернет-сайт, мы не стали переносить его к себе, чтобы сэкономить трафик.

Какие новые сервисы вы смогли предоставить офисным пользователям?

Мы реализовали почтовый сервер на Microsoft Exchange, а также подключили Microsoft Office 365. Вообще с точки зрения офисной работы ситуация у нас самая обычная. Бухгалтерия работает на продуктах «1С», другие пользователи — также на обычном ПО. Самый сложный программный продукт — наша система продажи билетов. Расскажу о ней вкратце. Она построена на основе системы «Базис» от российской компании «Софт Механика» и представляет собой клиент-серверную платформу на основе СУБД Sybase. Мы купили эту систему в базовом варианте, а функционал для продажи билетов через интернет нам помогала разрабатывать компания VTIX. Что касается пиковой нагрузки, она поддерживает до 50000 продаж билетов в день. Мы используем экспресс-версию Sybase, поскольку расширенные возможности возможности этой базы данных нам просто не нужны. Билетная система у нас действует уже год. В чем ее ценность? Теперь все подключаются к нам и работают в едином билетном «поле», поэтому уже не возникает ситуация, когда в результате квоты кому-то сразу достаются билеты получше, а кому-то похуже. Все билеты распределяются честно и справедливо. Квотирование плохо еще и тем, что такие билеты могут вернуться за пару дней до представления, и нам уже сложно будет их реализовать. Больше не возникает таких ситуаций, когда у тебя вроде бы все билеты проданы, а за день до представления выясняется, что треть зала пустует, поскольку какой-то агент не смог реализовать билеты и вернул их.

Правильно и грамотно внедренные ИТ-решения позволяют бизнесу снижать расходы и зарабатывать больше денег. Удалось ли вам добиться этого?

Во-первых, таким моментом является отказоустойчивость наших систем. Раньше сбой вызывал остановку всех наших офисных компьютеров. Соответственно, пересчитываем время простоя в часах и получаем размер убытка. Во-вторых, это бесперебойная работа нашей билетной системы. В-третьих, наша система управления шоу, объединяющая свет и звук в одну сеть, о которой я говорил в самом начале. Благодаря резервированию, в случае остановки ничего не произойдет, свет и звук будут работать в штатном режиме. Ведь остановка шоу означает возврат билетов.

Кто в цирке является основным источником новых идей по использованию информационных технологий — ИТ-отдел или руководство в лице братьев Запашных?

Аскольд Запашный — главный генератор нововведений с художественной точки зрения. Обычно у него возникает идея какого-то медиапроекта, а мы со своей стороны должны представить способы его реализации. Среди наших идей — развертывание публичной Wi-Fi-сети, с помощью которой можно было бы мониторить и измерять поток зрителей. Среди идей Аскольда — система видеотрансляций с манежа, как, например, это сделано на стадионах. Еще один интересный замысел, который мы сейчас прорабатываем, — интеграция в зрительские кресла медиаустройств с сенсорным экраном, как это сделано в самолетах. Такие устройства можно использовать для игр в антракте, для трансляции контента, для перевода речи, звучащей в шоу, на иностранные языки.

Хотелось бы спросить и про вас лично. Чем вы занимались до того, как пришли в Цирк на проспекте Вернадского? Тоже работали в творческих структурах?

И да и нет. Я девять лет проработал в компании Villagio Estate, которая специализируется на продаже элитной недвижимости. Отвечал за ИТ-инфраструктуру отдела 3D-моделирования. У нас была самая крутая рендер-ферма во всей Москве. С тех пор у меня такая большая любовь к медиа. Я познакомился со многими представителями киноиндустрии, которым также помогал строить рендер-фермы. Все это мне очень помогло в цирке, поскольку работа с медиаконтентом здесь на первом месте.

Какие новые ИТ-системы вы планируете внедрять в ближайшем будущем?

Могу сказать, что мы собираемся внедрять систему управления инженерной инфраструктурой здания. В результате хотим получить «пульт управления» вообще всем цирком, а не только представлением.

И последний вопрос. Цирк — большая семья, сообщество, члены которого всегда и во всем друг друга поддерживают. Ощущают ли айтишники себя частью этой большой семьи?

Да. Это кажется странным, но у нас действительно семейная атмосфера.

Опубликовано 17.08.2016

Похожие статьи