SDN: других альтернатив пока нет

Логотип компании
SDN: других альтернатив пока нет
Аббревиатура SDN (Software Defined Networks, программно конфигурируемые сети) за последние полгода стала достаточно популярной и имеет шансы попасть в число терминов, не требующих расшифровки.

Аббревиатура SDN (Software Defined Networks, программно конфигурируемые сети) за последние полгода стала достаточно популярной и имеет шансы попасть в число терминов, не требующих расшифровки. А появилась она лишь немногим более двух лет назад в Стэнфордском университете (Stanford University), где преподаватели задумались над методическими основами курсов по основам компьютерных сетей. Задумались и пришли к выводу, что делают все не так. Обучение, решили они, лишено фундаментального подхода: студентам рассказывают не о компьютерных сетях как таковых, а о наборе сетевых протоколов, каждый из которых имеет свои достоинства и недостатки.

Протоколы появляются и исчезают, но значимость компьютерных сетей с каждым годом только растет. Поскольку именно компьютерные сети, включая глобальную Паутину, служат тем катализатором, который обеспечивает развитие информационных технологий в целом. Облачные вычисления, виртуализация, растущее как снежный ком число смартфонов – все это было бы немыслимо без сетевого взаимодействия. А ведь его основы, такие как семиуровневая модель взаимодействия открытых систем, протоколы IP и Ethernet, были разработаны десятки лет назад, когда никто и представить не мог структуру и объем современных потоков данных, а вопросам безопасности не уделялось должного внимания. И с тех пор развитие шло лишь за счет усилий производителей сетевого оборудования, каждый их которых продвигал свои решения с той или иной степенью настойчивости. Существует ли возможность открыть путь для инноваций в этой сфере, не потеряв при этом главное – «совместимость» и «работоспособность»?

Специалисты из Стэнфорда были хорошо знакомы с шутливой поговоркой, что любая проблема может быть решена путем добавления еще одного уровня абстракции, и попытались выделить ключевые компоненты в архитектуре компьютерных сетей. Таковых, с их точки зрения, оказалось три: распределенное состояние сети, конфигурация сетевых элементов и механизм продвижения пакетов (forwarding). Именно эти аспекты должны быть виртуализованы, специфицирован интерфейс взаимодействия с ними, а сам процесс взаимодействия должен быть возложен на сетевую операционную систему. Причем под сетевой операционной системой понимается не интеграция стека сетевых протоколов и ядра, которую мы видим в настоящий момент, а система, позволяющая абстрагироваться от топологии сети и сделать управление логически централизованным.

Иными словами, необходимо разделить функции управления и манипуляции данными, оставить на долю сетевого оборудования простые операции по модификации пакетов, их передаче с интерфейса на интерфейс или удалению. Весь сетевой трафик следует разбить на потоки (flow), а управление маршрутизацией каждого потока должно централизованно выполняться на специальном контроллере, который может использовать те алгоритмы, которые посчитает наиболее эффективными в данный момент, не ограничиваясь набором, заложенным в ПЗУ маршрутизаторов. При этом должен быть предусмотрен механизм совместной работы, при котором часть трафика обрабатывается по-старому, без участия этого контроллера. Ну и, разумеется, спецификация должна быть открытой и общедоступной. На основании этого подхода и было разработано семейство протоколов OpenFlow, ставшее первой практической реализацией архитектуры SDN. Хотя «семейство» звучит слишком громко – в нем всего два документа: «OpenFlow Switch Specification», недавно обновленный до версии 1.3, и « OF-CONFIG», который пока преодолел только рубеж 1.1.

Итак, два документа по сто страниц в каждом. Казалось бы, ничего особенного, обычная академическая инициатива. Как же получилось, что IDC прогнозирует динамику роста рынка SDN с $200 млн в 2013 году до $2 млрд в 2016-м (с учетом оборудования, сервисов и программного обеспечения (www.networkcomputing.com/data-networking-management/240001119), притом что весь рынок Ethernet-оборудования для операторов связи (Carrier Ethernet Equipment), по оценкам Infonetics Research, составит в 2015 году $40,2 млрд (www.infonetics.com/pr/2011/1H11-Carrier-Ethernet-Market-Highlights.asp)? И почему учредителями международной организации Open Networking Foundation (ONF), созданной для продвижения стандарта OpenFlow, стали компании Deutsche Telekom, Facebook, Google, Microsoft, Verizon и Yahoo!, которые владеют и управляют крупнейшими сетями в мире? Скорей всего, это еще один пример того, как важно оказаться в нужное время в нужном месте. Дело в том, что за последние годы индустрия компьютерных сетей в целом приблизилась к переломному моменту, к ситуации, когда необходимы перемены.

Традиционные сети, как правило, имеют иерархическую структуру: состоят из нескольких уровней Ethernet-коммутаторов. Это было оправданно в те времена, когда преобладали взаимодействия типа «клиент-сервер». Но современные ЦОД требуют большей динамики. Ситуация, когда запрос с одного компьютера-клиента обрабатывается одним компьютером-сервером, осталась в прошлом. Сегодня каждый запрос генерирует целый шквал обращений к базам данных, системам хранения, серверам приложений, и это сильно изменило структуру сетевого трафика. Все больше предприятий используют облачные сервисы, как публичные, так и частные, что делает трафик менее предсказуемым, требует быстрого и эластичного масштабирования. Все больше людей используют смартфоны, планшеты и ноутбуки для доступа к своим корпоративным данным, причем хотят иметь эту возможность вне зависимости от того, где они находятся в настоящий момент и каким именно устройством пользуются. Все это существенно усложняет и без того непростые задачи обеспечения безопасности, защиты корпоративных данных и соблюдения требований законодательства.

Нельзя не отметить и рост виртуализации серверов. Да, это позволяет более эффективно использовать вычислительные мощности, но виртуальная машина гораздо мобильнее, чем физический сервер, и предъявляет больше требований к конфигурации сети. Наконец, данных просто становится больше с каждым годом: такие единицы измерения, как петабайт, уже уверенно входят в обиход. Увы, современная сетевая архитектура не приспособлена для решения подобных задач. В значительной степени это результат ориентации на набор протоколов как средство обеспечения надежного взаимодействия сетевых элементов на различных расстояниях, скоростях и топологиях.

С течением времени протоколы развивались, гарантировали все более высокую производительность, надежность и безопасность, но развитие это было лишено единого координационного центра и неизбежно привело к усложнению оборудования. А более сложное оборудование стоит дороже и менее пригодно для масштабирования. Построение и конфигурирование сетей выполняются на уровне отдельных устройств, многие их которых имеют специфичные интерфейсы, что крайне затрудняет автоматизацию. А с ростом размеров сети добавление каждого нового устройства или просто его перемещение требуют все больше усилий, изменения настроек различных коммутаторов, маршрутизаторов, межсетевых экранов, интернет-порталов и опять протоколов. Стремясь облегчить задачи конфигурации оборудования и избежать проблем с совместимостью, предприятия стараются использовать оборудование одного производителя. Но это приводит к снижению конкуренции и усилению зависимости от этого производителя, от его планов по обновлению и модернизации и сроков их выполнения. Сетевая инфраструктура становится все более статичной и требует все больше сил и средств для поддержания и сопровождения. Да и ситуация, при которой на долю, компании Cisco приходится в некоторых сегментах до трех четвертей рынка, вряд ли устраивает других вендоров.

Архитектура SDN дает шанс изменить сложившееся положение. Возможно, именно поэтому в ONF уже более 60 членов и их число постоянно растет, за последние полгода под эгидой этой организации прошли уже две международные конференции Open Networking Summit. Причем если на первой речь шла в основном о теоретических основах и потенциальных применениях, то в апреле этого года представители компании NEC с гордостью сообщили о первых результатах внедрения OpenFlow на примере Genesis Hosting Solutions и Nippon Express с использованием контроллера PF-6800 и коммутатора PF-5240. В свою очередь IBM объявила о поступлении в продажу первого 10-гигабитного Ethernet-коммутатора G8264, предназначенного для совместной работы с контроллером от NEC. Не отстает и Hewlett-Packard, выпустив обновление встроенного ПО с поддержкой OpenFlow для 16 моделей коммутаторов.

А как же Cisco? Ее позиция в отношении OpenFlow пока скорее выжидательная. Появилась лишь информация о создании автономной компании Insieme с начальным капиталом в $100 млн, который может быть увеличен еще на 750 млн. Идея состоит в том, что маленькая компания сможет более эффективно исследовать новые технологии и создавать новые продукты, а в том случае, если она добьется успеха на рынке, Cisco произведет обратное поглощение.

Итак, какие же выводы можно сделать? Ожидают ли сетевую инфраструктуру радикальные изменения? Да, это неизбежно. Будут ли они связаны с внедрением программно конфигурируемых сетей в широком смысле этого слова? Почти наверняка, других альтернатив пока нет. Станет ли OpenFlow основополагающим протоколом, на базе которого будут развернуты новые сетевые сервисы? Возможно, но своего слова пока не сказала компания Cisco. И слово может быть весьма весомо.

Читайте также
Как автоматизировать аудит процессов, регулярно выявлять узкие места и быстрее достигать целей бизнеса? Разбирался IT-World.

Опубликовано 12.11.2012