Архитектура Интернета эволюционирует. Изначально она оказалась весьма успешной для своего времени, превзойдя самые оптимистичные ожидания: от возможностей входа в системы, пересылки файлов и электронной почты произошел переход к сервисам передачи мультимедиа. Но затем изменения стали более постепенными. Сегодня поверх Сети работают многочисленные сервисы интернет-телефонии, дистрибуции контента, потокового видео, социальных сетей, облаков и электронной коммерции. Весь мир впал в зависимость от Интернета: отказы, вызванные ошибками в программном обеспечении, попытками взлома или аппаратными неполадками, способны сегодня оказать огромное негативное влияние на политику, экономику и общество.

При этом Интернет страдает от ряда глубоко укоренившихся проблем, связанных с его первоначальной архитектурой, которые сегодня весьма обострились. Даже после полувека эволюции архитектуры Сети пользователи страдают от спам-рассылок, незащищенности от атак и от нарушения приватности, отсутствия гарантий качества обслуживания [1]. Вместе с тем первоначальная архитектурная концепция Интернета имела как положительное, так и отрицательное влияние на его дальнейшее развитие.

Рассмотрим факторы, требующие пересмотра на новом витке эволюции Интернета, а также обсудим сложности выполнения новых требований и опишем критические проблемы, которые необходимо решить для продолжения успешного развития Сети в качестве фундамента информационного постпандемийного общества.

Эволюция Интернета

Рис. 1. Цикл эволюции Интернета

Практически все факторы, требующие дальнейшей эволюции Интернета, вполне укладываются в исторически сложившийся цикл развития Сети (рис. 1): когда происходит новое событие, оно становится триггером усовершенствования архитектуры, благодаря чему появляются новые действующие субъекты и, соответственно, новые режимы работы. И наконец, под влиянием последних возникают новые требования. Рассмотрим, как менялись перечисленные точки цикла на протяжении всей истории Интернета и как это влияло на его архитектуру.

Изменение трафика

Летом 1969 года объем трафика в каналах сети ARPANET, прародительницы Интернета, достигал нескольких килобайтов в месяц, а узлов было всего четыре. Оба этих показателя непрерывно росли на протяжении всей истории Интернета и будут расти дальше. Исчерпание пула доступных адресов IPv4 — яркое подтверждение тенденции. В организации Internet Engineering Task Force в середине 1990-х годов предложили временное решение проблемы в виде механизма Network Address Translation (NAT), а в качестве долгосрочного решения — протокол IPv6, однако он так и не получил признания.

Эволюция архитектуры Интернета способствует появлению новых видов приложений и, соответственно, новых видов трафика. Новые задачи и требования будут менять трафик, и в дальнейшем (в частности, с появлением голографических приложений и автомобилей-роботов) архитектуру Интернета придется пересмотреть. В истории Сети немало таких примеров. Например, можно напомнить, как источники контента переместились на периферию сети. В последнее десятилетие в Интернете доминирует трафик поточного видео и, соответственно, развиваются методы уменьшения нагрузки серверов и сетей, в том числе с помощью сетей доставки контента (content delivery network, CDN) и кэширования, а пандемия-2020 вызвала резкое увеличение трафика Интернета, особенно видео-конференц-связи.

Мобильность пользователей

Развитие системы телекоммуникаций привело к тому, что практически все мобильные устройства стали оснащаться как минимум одной радиотехнологией, позволяющей обмениваться данными в движении. Однако архитектурные основы Интернета и главный протокол Сети, IP, не были на это рассчитаны. Стек TCP/IP — это набор коммуникационных протоколов, в которых для идентификации уникальной конечной точки сети используется IP-адрес. Для компенсации нехватки адресов применяется технология NAT, с помощью которой несколько устройств могут делить один и тот же публичный IP-адрес. Но IP-адрес одновременно указывает и на местонахождение устройства. Такая двойная функция влияет на транспортный уровень: при изменении физического местонахождения, которое теоретически должно повлечь изменение IP-адреса, может произойти разрыв активного сеанса транспортного уровня.

Интернет будущего должен предоставить огромную пропускную способность и малую задержку при передаче данных, а зависящим от него системам дистанционной медицины, дополненной реальности, голографии, беспилотных автомобилей и пр. — детерминированное поведение и гарантированное время отклика. Можно предвидеть, что в эпоху мобильной связи 6G, которая будет обеспечиваться в том числе кластерами низкоорбитальных спутников, Сеть должна будет передавать колоссальные объемы данных от высокоскоростных автономных транспортных средств.

Сегодня уже предложены различные решения, касающиеся мобильности и отделения идентификатора от местонахождения, но проблема управления мобильностью как в радиосистемах, так и в решениях на основе IP остается открытой [2].

Нехватка пропускной способности для конечных точек

С ростом трафика приложений и колоссальным расширением пользовательской базы Интернет стал испытывать дефицит пропускной способности. Поступает масса жалоб на несоответствие скорости широкополосного доступа заявленной — многие пользователи не удовлетворены качеством обслуживания.

Развитие систем связи и экономический эффект масштаба способствовали росту сетей поддержки облаков. Но, несмотря на существенное увеличение пропускной способности Сети, операторы облаков пользуются всевозможными методами экономии трафика — например, механизмами создания инкрементальных резервных копий. Операторы CDN для снижения трафика прибегают к кэшированию на периферии сети. Будущие системы Интернета вещей, голографической связи, удаленного управления критически важными операциями будут генерировать огромные объемы данных и трафика, в том числе управляющего, что приведет к дальнейшему росту спроса на пропускную способность.

На сегодня основные улучшения в этом плане реализованы в области технологий физического уровня, оборудования для передачи данных по медному и оптическому кабелю, однако при этом остается острая потребность в расширении количества каналов FTTx (fiber to the home/office), проводимых в дома и офисы.

Большие задержки Интернета

Исследования подтверждают, что задержки в Интернете — обычное явление, причем они варьируются в широких пределах [3]. Показано, что ситуация со временем не улучшается, а между разными регионами имеются существенные отличия.

К деградации производительности и потере пакетов зачастую ведет явление, получившее название bufferbloat (задержки передачи данных, обусловленные формированием чрезмерно длинных очередей). Исследуются различные методы для решения этой проблемы: планирование, контроль пропускной способности с использованием нескольких маршрутов без общих точек, применение технологий программно-конфигурируемых сетей для преодоления трудностей с управлением сервисом транспорта данных и предоставлением ресурсов.

Значительное влияние на задержку при работе приложений могут оказывать стратегии доступа к данным и места развертывания сетевых компонентов — серверов, кэшей и др. В связи с этим, например, для уменьшения задержки поиска по DNS соединения клиента с данными выполняют переадресацию на сервер, размещенный географически ближе или имеющий меньшую прогнозируемую задержку; контент для ускорения доступа размещают ближе к конечному пользователю — на сетевых прокси или в кэше сети и клиентской системы; в играх применяют различные методы прогнозирования и маскировки сетевой задержки.

Исторически при проектировании Интернета учитывались три основных параметра: пропускная способность сети, количество битов в пакете данных и охват сети. Однако для систем будущего (например, средств голографической связи и механизмов обратной тактильной связи) будут важны скорость реакции и интерактивность, а задержки, характерные для нынешнего Интернета, для подобных применений окажутся недопустимо большими.

Критические проблемы эволюции Интернета
Рис. 2. Рост и исчезновение перегрузки каналов Comcast: а — упрощенная схема получения пользователями Comcast поточного трафика Netflix (2013 год — начало 2014 года); б — примерная длительность перегрузки каналов, соединяющих Comcast с тремя крупными сетями

Доставка пакета по маршруту обеспечивается за счет многочисленных взаимных соединений между разнородными автономными системами (autonomous systems, AS). Первоначально процесс межсоединения AS был относительно простым, в нем участвовали в основном провайдеры Интернета со сбалансированными потоками входящего и исходящего трафика, но со временем все сильно усложнилось, и теперь определенную роль в изменении иерархии AS стали играть контент-провайдеры. До марта 2014 года весь трафик Netflix для абонентов Comcast проходил по нескольким маршрутам через нескольких операторов, включая Cogent, Level 3, Tata и др. (рис. 2, а). Исследователи оценили влияние этих межсоединений на перегрузку сети и выяснили, что после марта 2014 года время перегрузки каналов Cogent, Level 3 и Tata упало с 18 часов в сутки практически до нуля благодаря тому, что Netflix и Comcast заключили соглашение о прямом обмене трафиком (рис. 2, б).

Фрагментация общедоступного Интернета и увеличение количества контент-провайдеров, вероятно, приведут к усложнению и дисбалансу межсоединений AS, вследствие чего архитектура Сети станет более однородной.

Низкая доступность

В Оксфордском словаре «доступность» определяется как возможность использования или получения чего-либо в любое время и при любых условиях. Применительно к сетям это означает, что если существуют работоспособные маршруты, то протоколы Интернета позволят их найти даже при отказах. Однако на практике маршрутизаторы могут не обнаружить неработоспособный канал либо не пустить трафик в обход — эту ситуацию называют «безмолвным отказом». Масштабный опрос об отказах Интернета показал, что во многих кратковременных отказах виноваты изменения маршрутов, выстраиваемых с помощью протокола Border Gateway Protocol (BGP), а также задержки при объединении маршрутов. Отказы также могут быть обусловлены неверными настройками, перемещением и хакерскими атаками — порчей таблиц маршрутизации и DDoS.

Интернет сохранял надежность работы на протяжении большей части своей истории, однако все указывает на то, что протокол BGP слишком «хрупкий», для того чтобы в дальнейшем имело смысл его исправлять.

Интернет небезопасен

Доставка пакетов строится на многочисленных межсоединениях AS. В 1989 году был разработан протокол BGP, отвечающий за принятие решений о выборе маршрутов между AS, и с тех пор было выпущено четыре его версии. Предлагаются все новые усовершенствования, однако для BGP по-прежнему характерны проблемы, связанные с отказом каналов, масштабируемостью и безопасностью. Особую угрозу представляют посреднические атаки перехвата трафика и порчи таблиц маршрутизации, ведущие к изменению маршрута. В 2013 году жертвами такой атаки стали более 150 организаций: финансовые учреждения, операторы интернет-телефонии, государственные организации. В ходе атак, в частности, был перехвачен контроль над трафиком, который должен был идти напрямую из Нью-Йорка в Лос-Анджелес, — в результате данные перенаправлялись через Россию и Белоруссию.

Учитывая особую критичность конфиденциальности для работы приложений будущего и то, что BGP не обновлялся с 1994 года, обеспечение безопасности относится к проблемам, требующим незамедлительного решения. Дополнительные сложности связаны с тем, что при реализации автономного управления сетью и ее оркестровки (management and orchestration, MANO) возможно появление новых брешей.

Прозрачность

Согласно концепции Catenet (сети с коммутацией пакетов, предложенной еще до Arpanet), предполагалось, что единое логическое пространство адресов должно охватывать всю сеть целиком. Такая прозрачность адресов обеспечивала важные преимущества: пакеты могут пересекать сеть без каких-либо изменений; при двухточечной связи адреса источника и назначения можно использовать в качестве уникальных меток. Но с ростом сети прозрачность адресов была утрачена (RFC 2775). Появились интрасети (частные IP-сети), технология динамического выделения адресов, межсетевые экраны, частные адреса, NAT, шлюзы уровня приложений, ретрансляторы, прокси, кэши, посреднические устройства и т. д.

Сегодня отправитель не может получить гарантию того, что его пакет пройдет по определенному маршруту, даже имея таблицы всех маршрутизаторов по состоянию на момент отправки, поскольку те могут в любое время обновлять внутренние таблицы. Это свойство могло бы использоваться приложениями будущего, но обеспечить прозрачность все же нужно, чтобы избежать попадания некоторых AS в черный список.

Обсуждение

Инерция Интернета

Для решения описанных проблем существует ряд альтернативных подходов, предусматривающих переработку архитектуры Сети с нуля. В теории они выглядят многообещающими, но их внедрение не представляется реальным ввиду зависимости существующих приложений от модели TCP/IP и нынешних транспортных протоколов. Еще одно важное обстоятельство связано со сложностью полевого тестирования и оценки новых разработок. Для масштабных экспериментов с некоторыми из подобных архитектур создавались испытательные среды — например, MBone для многоадресной рассылки, QBone для механизмов обеспечения качества обслуживания и 6Bone для протокола IPv6, систем GENI и PlanetLab.

Даже если не учитывать эти сложности, известно, что внедрение усовершенствованных вариантов самого TCP/IP часто сталкивается с трудностями, и IPv6 — яркий тому пример.

Между тем общедоступный Интернет продолжает работать и предоставлять сервисы, причем, возможно, даже лучше, чем можно было себе представить, если оглянуться на времена зарождения Сети. Однако все требования приложений будущего нынешний Интернет удовлетворить не способен. К тому же сегодня существуют крупные корпоративные сети, которые основаны на тех же протоколах, но работают и развиваются независимо от Интернета.

Фрагментация Интернета

Один из факторов успеха Интернета — цикл «сервис — инфраструктура», в рамках которого создается новый сервис или модернизируется имеющийся, если появляется потребность в масштабировании или в новых возможностях. Почти 40 лет этот цикл работал и привел Интернет к его нынешнему виду, но с 2005 года исследователи заговорили об «окостенелости» Сети и неспособности ее архитектуры адаптироваться к новым условиям и требованиям.

Рис. 3. Фрагментация Интернета

До того как стать единым пространством, Интернет представлял собой набор отдельных сетей, не имеющих межсоединений. Сегодня некоторые исследователи считают, что «окостенелость» приводит к возвращению прошлых недостатков: архитектура Интернета снова становится фрагментированной, единая сеть распадается на множество сетей. Сегодня параллельно общедоступной сети существует целый ряд частных, отвечающих особым требованиям: Sigfox — для Интернета вещей, HASTE — для ускорения работы игр и пр. (рис. 3). Помимо частных сетей, работающих в обход Интернета, свою роль в его фрагментации играют и поставщики контента, которые обмениваются трафиком напрямую с провайдерами Интернета и перемещают контент в кэш ближе к конечным пользователям.

Новые инициативы

Организация Internet Research Task Force (IRTF) занимается проектами, предполагающими переработку Сети с нуля, и другими перспективными исследованиями, связанными с Интернетом, а IETF основное внимание уделяет более актуальным задачам, связанным с проектированием и разработкой стандартов.

В состав IRTF входят 14 исследовательских групп, занимающихся различными вопросами, связанными с криптографией, приватностью, управлением сетью, глобальным доступом к Интернету и др. Недавно в Совете по архитектуре Интернета (IAB) начали готовить инициативу в сфере обеспечения устойчивости, получившую название Challenges for Internet Resilience.

Международный совет по электросвязи в 2018 году учредил Фокус-группу «Технологии для сети — 2030», которая занимается разработкой соответствующей концепции, требований, архитектуры, новых применений, методологии оценки и пр. Проект осуществляется независимо от IRTF и IETF.

Программируемая сеть

Сетевое программирование и, в частности, программирование на уровне сетевых приложений развивается уже много лет, а за последнее десятилетие произошли особенно большие сдвиги. В 2008 году появился первый интерфейс программирования для протокола OpenFlow, который обеспечивает связь между плоскостью управления сетью и плоскостью данных. OpenFlow считается основой программно-конфигурируемых сетей (software-defined networking, SDN) — концепции, позволяющей оптимизировать работу сети и расширить возможности мониторинга преимущественно за счет управления и настройки. В рамках SDN для сетевых устройств с программируемой плоскостью данных разработаны методы ForCES (Forwarding and Control Element Separation) и POF (Protocol Oblivious Forwarding). Благодаря OpenFlow второе рождение получила концепция сетевой операционной системы — появились сетевые ОС на базе этого протокола, такие как NOX, Onix и ONOS.

Позднее, благодаря усилиям Европейского института по стандартизации электросвязи (ETSI), исследовательское и отраслевое сообщество удалось заинтересовать концепцией виртуализации сетевых функций (Network Function Virtualization, NFV). Благодаря отделению сетевых функций от физических устройств, на которых они выполняются, NFV обещает повысить гибкость сервисов, обеспечив возможности их эффективного масштабирования и перемещения.

С появлением технологии «сетей на основе намерений» (Intent-Based Networking, IBN) и новых языков программирования, оркестровки сетей стали более автоматизированными и легко изменяемыми, чему также способствовали отказ от настройки с помощью командной строки и избавление от необходимости привлекать для развертывания сервисов высококвалифицированных технических специалистов. Например, для разработки независимых от протокола обработчиков пакетов сегодня можно пользоваться OpenFlow и языком программирования высокого уровня P4. Существует также T-NOVA, полноценный программно реализованный стек MANO, работающий с облачным оркестровщиком OpenStack и сетевым контроллером OpenDaylight, которые поддерживают высокоуровневые интерфейсы IBN.

Нерешенные проблемы

Интернету будущего предстоит соединять огромное количество физических объектов: смарт-терминалов, носимых устройств, автомобилей, АСУ ТП и т. д. С ростом применения внутрисетевых вычислений и машинного обучения резко увеличится число сервисных ресурсов: микросервисов, процессов и функций. Что касается размещения контента в сети, произойдет переход от нынешней сильно централизованной модели к сильно распределенной, обеспечивающей высокую скорость доступа как для пользователей, так и для приложений. Контент и функции больше не будут привязаны к конкретному местонахождению или хосту.

«Точки зрения»

Архитектура Интернета — сложная система с огромным количеством спецификаций, знать которые полностью невозможно. Для подобных систем в рамках стандарта ISO Reference Model for Open Distributed Processing (RM-ODP) была предложена концепция точек зрения, помогающая упростить решение проблем. Согласно модели RM-ODP, Интернет в качестве программно-аппаратной распределенной системы может выступать как предприятие, а кроме того, его можно рассматривать с информационной, вычислительной, инженерной и технологической точек зрения. Причем анализ с точки зрения предприятия будет не менее важен, чем с учетом инженерно-технических аспектов.

Управление

Логическое разделение функций сети на плоскости было впервые введено МСЭ для каналов ISDN в 1980 году. В классификацию включили три плоскости — передачи, контроля и управления. Последняя отвечает за механизмы настройки плоскости контроля (командная строка, SNMP и т. п.) и играет весьма важную роль в общей системе, но в исследовательских публикациях она часто упускается или представляется как часть плоскости контроля. Пример: в концепции SDN по-новому реализуются плоскости передачи и контроля, с более четкой границей между ними. В организации Open Networking Foundation описывают SDN следующим образом: «В данной архитектуре плоскости контроля и данных разделены, анализ и хранение состояния сети логически централизованы, а низкоуровневая сетевая инфраструктура абстрагирована от приложений». При этом плоскость управления не упоминается.

Растущая потребность в экономически эффективном развертывании и контроле сервисов в автоматическом режиме способствует эволюции плоскостей контроля, оркестровки и управления. В связи с этим было предложено рассматривать сеть также с точки зрения архитектуры контроля, оркестровки и управления, обеспечивающей динамическое предоставление сервисов по принципам SDN и NFV.

Качество обслуживания

Одно из самых трудновыполнимых требований к Интернету будущего — управление пропускной способностью и задержкой трафика. С появлением новых видов трафика и приложений предоставление связи по принципу максимально доступного качества уже не гарантируется. Нынешние транспортные механизмы Интернета могут предоставлять обслуживание разного класса, обеспечивая пропускную способность с помощью специальных стеков протоколов. Однако эти механизмы все еще не обеспечивают гарантированных значений скорости и задержки, не позволяя даже надежно прогнозировать последнюю. Для новых приложений понадобятся специальные механизмы обработки их конкретных потоков трафика, позволяющие успешно передавать их по Интернету. Для этого Сети нужны продуманные средства обеспечения качества обслуживания в дополнение к первоначальной модели доставки данных, основанной на принципе максимально возможного качества.

На сегодня предложено несколько вариантов архитектуры с поддержкой дифференциации качества обслуживания, особого внимания среди которых заслуживают модели Integrated Services и Differentiated Services.

В отличие от традиционных сетей, в программно-конфигурируемых сетях контроллеру SDN доступен обзор всей сети, что позволяет ему оптимизировать поток трафика за счет активного динамического перераспределения ресурсов. Благодаря достигаемой таким образом гибкости появляется возможность разграничивать качество обслуживания сети на уровне потоков или приложений.

Устойчивость

Устойчивость — способность сети обеспечивать удовлетворительный уровень обслуживания несмотря на возникающие в ней проблемы, и сегодня формализованы основы сетевой устойчивости. Ввиду критичности онлайн-сервисов будущего, структурная и эксплуатационная устойчивость должны стать определяющими особенностями архитектуры Интернета, что позволит Сети сохранять обслуживание при кибератаках, аппаратных сбоях, неверных настройках, авариях, стихийных бедствиях и ошибках оператора.

Для обеспечения устойчивости сети протоколы маршрутизации обычно применяют процедуру быстрого объединения маршрутов, которая чаще всего активируется из-за изменений сетевой топологии, вызванных отказом, удалением, добавлением или техническим обслуживанием маршрутизатора или канала. Для Интернета будущего, однако, следует реализовать возможности прогнозной маршрутизации, которые позволят предсказывать изменения состояния маршрутизатора или хоста. Это позволит менять маршруты еще до наступления негативных событий, что пойдет на пользу системам будущего в условиях, когда потеря или задержка доставки пакетов может быть очень опасной — например, в случае движения автомобилей на скоростной трассе, функционирования промышленных роботов, перемещающихся по заводу, и т. д. Для реализации прогнозной маршрутизации понадобится система машинного обучения, которая будет профилировать и классифицировать отказы, выбирая наиболее эффективное решение, позволяющее избежать влияния сбоя на приложения и конечных пользователей.

Средства прогнозной маршрутизации нужно будет объединить и с механизмами обеспечения качества обслуживания — одной из важнейших функций для конечных пользователей, операторов связи и сервис-провайдеров.

Идентификация и адресация ресурсов

Для Сети будущего понадобятся также новые методы идентификации и адресации ресурсов. Фиксированная 128-разрядная адресация IPv6 решила проблему нехватки адресов, но внутренняя структура адреса IPv6 не подходит для приложений Интернета вещей, а также для оборудования умных городов и Индустрии 4.0.

Кроме того, в связи со стремительным ростом применения мобильных периферийных вычислений и сильно распределенным характером их контента, ресурсов и функций, необходимы адекватные механизмы поиска таких конечных точек и эффективного соединения с ними. Среди перспективных вариантов — система переменных адресов с идентификатором физических и виртуальных объектов.

Механизмы измерения

Вот уже десятки лет, по мере развития архитектуры Интернета, внедряются новые сервисы, приложения и протоколы, которые подвергаются ревизии и измерению характеристик производительности, а затем при необходимости дорабатываются. На заре Интернета сбор данных и формирование отчетов не вызывали трудностей, но сегодня, в связи с увеличением сложности сети, распределенным характером систем, увеличением количества мобильных узлов и ростом разнообразия, измерения усложнились и требуется гораздо больше средств измерения.

Механизмы измерения должны стать важнейшим компонентом Интернета будущего, для их реализации понадобится соответствующий фреймворк сбора данных и формирования отчетов.

В свое время исследователи предложили для Интернета концепцию «плоскости знаний» (Knowledge Plane, KP) — уровня, на котором должна сохраняться общая информация о правильной структуре и работе сети. Спустя десять лет на базе KP разработали архитектуру измерения сетевых характеристик. Ее авторы уверены, что, благодаря прогрессу SDN, аналитики данных и машинного обучения, такое решение сегодня вполне реализуемо.

Оркестровка

Термин «оркестровка» (orchestration) широко применяется в мире сетевых и облачных технологий. По отношению к SDN он означает универсальную функцию, отвечающую за автоматизацию управления поведением сети. Этот термин также используется ETSI в описании спецификации концепции виртуализации сетевых функций, но из его определения трудно понять различие между оркестровкой и управлением. При этом, по сути дела, различия между оркестровкой, автоматизацией и управлением действительно не вполне четкие. Термином «автоматизация» называют механизм выполнения задачи без вмешательства человека, основная задача управления — поддержка работоспособного состояния инфраструктуры, а оркестровка отвечает за выполнение всех задач и процессов в правильном порядке.

Оркестровка станет одним из ключевых элементов будущих поколений Сети. Соответствующий механизм должен будет справляться со своими функциями, несмотря на всю сложность сервисов, и поддерживать быстро меняющиеся «намерения», связанные с приложениями и эксплуатацией сети: разработка масштабируемого процесса оркестровки — одна из ключевых исследовательских задач. Также к числу важных нерешенных проблем относятся обеспечение устойчивости оркестровщиков, контроллеров, диспетчеров управления и синхронизация состояний функциональных компонентов.

Сети на основе намерений

Стремительный рост разнообразия данных и объема их трафика будет создавать трудности с эксплуатацией и администрированием нынешних сетевых технологий, что приведет к росту потребности в специалистах, имеющих обширные технические познания в соответствующей области. Чтобы избежать этих проблем, понадобятся новые автоматизированные способы быстрого и эффективного развертывания инфраструктуры и сервисов. Именно этой цели служат технологии, объединенные концепцией «сеть на основе намерений» — IBN (intent-based networking). В такой сети приложение или конечный пользователь взаимодействуют с сетевым уровнем через уровень «намерений» (или «знаний») с помощью декларативных запросов, зависящих от приложения и технических соглашений. Поступивший запрос соотносится с императивной политикой, описание которой размещено в специальной базе данных с помощью модулей трансляции и принятия решений. В конечном счете с применением политики выполняются действия — например, создание конфигурационной модели устройства или полная настройка сервиса.

Технологии IBN позволят Интернету превратиться из статичной системы управления ресурсами, контролируемой человеком, в автоматизированную динамическую систему, которая непрерывно и единым образом адаптируется к потребностям конечного пользователя и приложения.

Новые виды сетей

Сети новых видов (Интернет вещей, мобильные периферийные вычисления и др.) рассчитаны на уменьшение задержки и повышение общей производительности приложений. Но в процессе разработки таких сетей появились новые проблемы, связанные в том числе с реализацией механизмов автозагрузки устройств и оповещения о местонахождении, с двухточечной адресацией и выбором маршрута в нетрадиционных IP-доменах, с приватностью, безопасностью и устойчивостью систем.

Кроме того, сложности возникают при попытках использования существующих технологий транспорта и управления пакетами для организации доступа к Интернету с помощью космических средств связи. В числе проблем — минимизация задержки передачи трафика и обеспечение высокоскоростной маршрутизации в условиях среды с частыми изменениями соединений внутри кластеров спутников и динамическим выбором каналов связи «космос — Земля».

***

Интернет развивается: появляются новые режимы его использования и методы передачи трафика по обходным путям, идет фрагментация. Переход от единой сети к многочисленным имеет и преимущества, и недостатки. С одной стороны, облегчается внедрение новаций, подразумевающих полный отказ от старого. С другой — создается ситуация, когда новичкам может быть невыгодно предлагать новые сервисы. Сегодня у стартапов есть возможность запускать новые сервисы в Интернете (пока еще единой общедоступной сети) без чрезмерных затрат. Соответственно, нужны способы минимизации негативных экономических эффектов, позволяющие в полной мере воспользоваться преимуществами фрагментации.

Интернет по-прежнему страдает от критических проблем: недостаточной безопасности и приватности, отсутствия гарантий устойчивости и качества обслуживания. Также становится очевидным, что полная замена нынешней Сети какой-то принципиально новой архитектурой невозможна без фрагментации, при этом наиболее верным путем к радикальным переменам может быть разработка крупными корпорациями собственных сетей. История эволюции Интернета учит: практически невозможно создать решения, позволяющие преодолеть сразу все существующие проблемы. Однако в этом отношении перспективным представляется принцип виртуализации сетей. Исследователям также стоит уделить особое внимание автономному управлению сетями и сервисами с использованием возможностей программирования и виртуализации, эффективных средств измерения и плоскости знаний в сочетании с машинным обучением.

Сегодня из-за пандемии стремительно меняются и жизнь, и работа: колоссально вырос трафик Интернета, в котором преобладает видео-конференц-связь. В связи с этим наращивается мощность магистральных сетей, и пока что существующая инфраструктура справляется. Однако в условиях усиления зависимости человечества от Интернета особую актуальность приобретает критическая оценка потребности в дальнейшей эволюции Сети.

Литература

1. S. Keshav. Paradoxes of internet architecture // IEEE Internet Comput. — 2018 (Jan/Feb). — Vol. 22, N. 1. — P. 96–102.

2. I. F. Akyildiz, J. Xie, S. Mohanty. A survey of mobility management in next-generation all-IP-based wireless systems // IEEE Wireless Commun. — 2004 (Aug). — Vol. 11, N. 4. — P. 16–28.

3. T. Hoiland-Jorgensen et al. Measuring latency variation in the internet. in Proc. CoNEXT'16, 2016. — P. 473–480.

Мехди Безахаф (mehdi.bezahaf@lancaster.ac.uk), Дэниел Кинг (d.king@lancaster.ac.uk) — старшие научные сотрудники, Дэвид Хатчисон (d.hutchison@lancaster.ac.uk), Николас Рейс (n.race@lancaster.ac.uk) — профессора, Ланкастерский университет.

Mehdi Bezahaf, David Hutchison, Daniel King, Nicholas Race, Internet Evolution: Critical Issues. IEEE Internet Computing, July/August 2020, IEEE Computer Society. All rights reserved. Reprinted with permission.