Движущие силы Интернета
Джефф Хьюстон (Geoff Huston)
Давайте вернемся на 50 лет назад и представим мир, существовавший в 1972 году, а также технологии и телекоммуникации того времени. Это был мир огромных и дорогих универсальных компьютеров («мейнфреймов»), круглосуточно обслуживаемых операторами и специальными программистами, обученными разбираться в том «тарабарском» наборе символов, который использовался для управления заданиями на этих машинах. При этом самым сложным бытовым прибором, с которым сталкивался средний потребитель, был радиоприемник или телевизор. Наши часы все еще были механическими. Тем не менее, изменения набирали ход. Пилотируемые космические полеты с их невероятными технологическими достижениями стали не только предметом восхищения целого поколения, но и помогли заглянуть в тот мир высоких технологий, который завладел нашими умами сегодня.
В течение всех этих 50 лет в информатике царствовал вездесущий закон Мура (https://en.wikipedia.org/wiki/Moore%27s_law). Универсальные компьютеры становились все более мощными, быстрыми и дешевыми. Одновременно появились компьютеры, которые не обязательно отличались более высокой скоростью или мощностью, но при этом были меньше и дешевле. Благодаря неуклонному уменьшению размеров и себестоимости, а также повышению удобства использования, они постепенно превратились в персональные компьютеры. В 1990-х годах появление рынка персональных компьютеров как потребительского товара оказало сильное влияние на архитектуру технологической среды. Появилось разделение между мейнфреймами и окружающим их созвездием персональных компьютеров. Кроме того, это разделение проникло в сети обмена компьютерными данными. Эти сети, в отличие от телефонных сетей, обращающихся одинаково со всеми подписчиками (по сути, это была истинная «одноранговая» сеть), начали внедрять сетевую архитектуру, которая проводила фундаментальное различие между клиентами и серверами. Компьютерные сети начали объединять и совершенствовать некоторые жизненно важные сетевые функции, такие как сервис общих имен и система маршрутизации, в рамках укрупненной концепции сети. При этом клиенты становились потребителями предоставляемых сетью сервисов. В некотором смысле 1990-е годы стали эпохой трансформации компьютерных сетей от парадигмы телефонии к концепции, которая была ближе к широковещательному телевидению.
Однако такое изменение модели сетевого взаимодействия клиент-серверных систем привело к появлению более фундаментального набора проблем в рамках сетевой среды. В вертикально связанном мире телефонии емкость сети в основном определялась количеством подключенных телефонных аппаратов. Поэтому обеспечение сети было детерминированным процессом, который полностью контролировался оператором телефонной сети. В несвязанном мире, построенном на основе новой клиент-серверной модели 1990-х, требования к пропускной способности сети определялись событиями на потребительском рынке. В результате объединение потребительского спроса и сетевого обслуживания стало функцией самого рынка Интернета. К началу 2000-х это привело к судорожным попыткам увеличить масштаб сервисов, предоставляемых серверной частью сети. Ненасытный спрос на потребительские устройства не был уравновешен соизмеримым уровнем инвестиций в масштабирование сервисной инфраструктуры и пропускную способность соединяющих сетей. При этом перестали существовать ценовые сигналы, а появление фиксированных тарифов на доступ к сетевым услугам еще больше усугубило проблему. Повышение потребительского спроса не сопровождалось увеличением выручки, что, в свою очередь, привело к тому, что все большая часть инфраструктуры финансировалась за счет повышения задолженности поставщиков услуг и инфраструктуры. Телекоммуникационная инфраструктура отошла от связанной модели, в рамках которой рост использования напрямую транслировался в дополнительные доходы для поставщиков, что, соответственно, позволяло получить дополнительный капитал для расширения инфраструктуры. При новой несвязанной экономической модели дополнительную выручку генерировали только новые пользователи, а увеличение уровня использования могло финансироваться лишь за счет наращивания инфраструктуры, вызванного привлечением дополнительных пользователей с предположительно низкой интенсивностью потребления. Если, по вашему мнению, эта картина похожа на огромную финансовую пирамиду, то вы недалеки от истины. Именно так выглядела индустрия поставщиков телекоммуникационных услуг (ISP) во второй половине 1990-х годов!
Такая среда привела к созданию петли обратной связи, которая усиливала спрос на сервисную инфраструктуру, и в состоянии стресса оказались не только финансовые модели: высокие темпы роста привели к сильному напряжению и технологических моделей. Огромную перегрузку испытывали популярные сервисы, развернутые в рамках единой платформы, кроме того, не справлялась с нагрузками сетевая инфраструктура, соединяющая эти сервисы. Решение проблемы заключалось в смене технологии сервисной инфраструктуры, в рамках которой произошел переход к фермам серверов и дата-центрам, коммутаторам и шлюзам, а также к иерархическому структурированию поставщиков услуг по «уровням». Снова стали проводиться эксперименты с виртуальными схемами в виде MPLS и VPN, а также в форме разделения сети на фрагменты. Поскольку такие усилия по наращиванию мощности сервисов обычно отставали от спроса, это вело к другим экспериментам с различными формами «качества обслуживания», которые позволяли нормировать потребление самых дефицитных сетевых ресурсов.
Возможно, самым существенным изменением 2000-х стало появление сетей распределения контента. Вместо того, чтобы соединять всех клиентов с единой точкой предоставления услуги (вспоминается ситуация, когда компания Microsoft пыталась распространять все онлайновые обновления Windows со своей расположенной в Сиэтле фермы серверов, что создавало серьезные проблемы как с вычислительной, так и телекоммуникационной точек зрения), произошел переход к модели репликации услуги вблизи от ее клиентов. В результате запросы клиентов передавались только внутри сетей доступа, тогда как внутренние ресурсы сетей использовались для подачи обновлений на пограничные центры обслуживания. По сути, Интернет открыл для себя пограничные механизмы распределения, которые приблизили сервисы к пользователям. Предыдущая телекоммуникационная модель старалась приблизить пользователей к сервисам.
И произошло это очень своевременно, учитывая громадный сдвиг кривой спроса, который совпал с появлением на рынке смартфонов Apple iPhone в 2007 году. Отрасли пришлось справляться с увеличением спроса на пропускную способность, который на три или четыре порядка превзошел аналогичный показатель для эпохи подключаемых персональных компьютеров. Никого уже не удовлетворяли килобиты в секунду. Заказчикам требовались соединения с пропускной способностью порядка нескольких мегабит в секунду для погружения в иммерсивную среду, созданную на их мобильных устройствах.
За последние 50 лет произошла стремительная эволюция сетевой инфраструктуры. Основанная на передаче пакетов данных сетевая модель, которая использовалась локальными сетями Ethernet, была втиснута в высокоскоростную инфраструктуру дальней связи. Коммутационная SDH-инфраструктура не строилась десятилетиями, сегодня узлы коммутации Интернета напрямую подключены к коммутирующей матрице. Однако несмотря на все эти изменения, мы по-прежнему используем IP-протокол для передачи пакетов.
Как и почему это произошло? С моей точки зрения, гениальность IPзаключается в отделении среды приложений и контентных услуг от характеристик основообразующей коммутирующей платформы. Каждый раз, когда изобретается новая технология передачи данных, достаточно отобразить на нее IP-протокол, после чего вся база установленных IP-устройств получает возможность безболезненно использовать эту технологию. Начиная с появления двухточечных последовательных соединений, систем Ethernet с общей шиной и до возникновения таких кольцевых технологий связи, как FDDI и DQDB, а также радиосистем, каждый раз происходила стремительная интеграция этих технологий на уровне IP без внесения каких-либо изменений в прикладную или сервисную среду. Это позволяло не только сохранить инвестиции, которые вкладывались в целый спектр следующих друг за другом телекоммуникационных технологий, но и повысить их ценность при каждом расширении базы интернет-пользователей и объема использования ресурсов.
Все это дает нам возможность представить следующие 50 лет развития телекоммуникационных технологий. Как мы уже убедились, 50 лет – это довольно большой срок, но во многих отношениях он не столь уж продолжителен. Изменения, происходящие на протяжении нескольких столетий, часто сопровождаются отбрасыванием всех аспектов прежнего состояния и внедрением абсолютно «новой» среды. Но я не думаю, что это справедливо для прогнозов на 50 лет. Большую часть современного мира можно было представить в 1971 году или даже еще раньше. Превращение мобильных телефонов в «умные» (смарт) устройства была очевидной тенденцией еще в начале 1970-х. Трансформация вычислительных машин в связи с поступательным совершенствованием технологий обработки кремния, которая позволила создавать процессоры с миллиардами транзисторных затворов, невероятно низким энергопотреблением и чрезвычайно высокой тактовой частотой, не привела к фундаментальному переосмыслению внутренней природы компьютеров. Произошла резкая миниатюризация, но компьютерная логика осталась, в основном, неизменной. Суть в том, что семена тех «плодов», которые стали доминировать спустя 50 лет, были ясно видны еще в 1971 году. То же самое применимо и к семенам будущего, которые уже, вероятно, существуют в современной телекоммуникационной среде и которые будут доминировать в нашем мире через 50 лет. Возможно, главная проблема заключается не в идентификации существующих зародышей идей будущего, а в попытке отличить значимые идеи от отвлекающих.
В связи с этим, скорее всего, не имеют никакого смысла попытки нарисовать детальную картину компьютерной телекоммуникационной среды через 50 лет. Однако если не вдаваться в детали, то можно взглянуть на формирующие будущее движущие факторы и выбрать из них самые важные на основе тех сил, которые формируют современный мир.
Каковы движущие факторы современных изменений?
Крупнее
Когда закончилось время вертикально-интегрированных провайдеров и произошел переход на рыночное балансирование спроса и предложения, мы стали свидетелями огромных волн увеличения спроса. В свое время телефония довольствовалась пропускной способностью, измеряемой килобитами в секунду. Сегодня телефонный обмен данными уже требует даже не мегабит или гигабит в секунду, а измеряется в терабитах в секунду. Например, анонсированный в марте 2021 года кабель Google Echo, который свяжет США с Сингапуром и будет проложен по дну Тихого океана, будет включать 12 оптоволоконных пар, проектная пропускная способность каждой из которых составляет 12 Тбит/с. И это соответствует совокупной пропускной способности кабеля в 144 Тбит/с. В настоящее время строятся все более крупные телекоммуникационные системы на базе фотоэлектронных усилителей, средств мультиплексирования длины волны и фазовой/амплитудной/поляризационной модуляции, которые позволяют добиться существенного повышения пропускной способности кабелей.
Возможно, Мур и открыл в свое время экстраординарный закон, но, положа руку на сердце, рост индустрии потребительских устройств намного превышает даже предсказанные им значения. В одном лишь 2020 году было продано примерно 1,4 миллиарда мобильных интернет-устройств, и мы наблюдаем подобный объем потребления и даже выше, начиная с 2015. Огромное количество устройств и широчайшая пропускная способность стимулируют появление все более иммерсивного контента и услуг. Так каким же образом происходит доставка контента всем этим клиентским устройствам? Мы стали экспертами в агрегировании серверов и контента, сегодня существуют выделенные сети распределения контента, которые обслуживают все эти клиентские устройства со скоростью и в масштабах, соответствующих пропускной способности сетей доступа «последней мили».
Когда мы говорим о том, что инфраструктура становится крупнее, то критически важное значение имеет не только использование сетей человеком. Компьютерные сети являются «пакетными», и их, в том числе, использует динамично развивающийся мир так называемого Интернета вещей. Если взглянуть на этот новый мир, то сразу возникают два вопроса, на которые невозможно точно ответить. Сколько таких «вещей» уже используют Интернет сегодня? И сколько их будет использовать Интернет завтра?
В настоящее время существуют разные оценки количества подключенных к Интернету устройств (https://techjury.net/blog/how-many-iot-devices-are-there/#gref). По общему мнению, их количество находится в диапазоне от 20 до 50 миллиардов устройств, но это результат довольно грубых оценок, а не надежного аналитического измерения. Объемы производства микропроцессоров измеряются миллиардами в год, поэтому в этом отношении существует крайняя неопределенность в сочетании с ожиданиями чрезвычайно высоких темпов роста. Пятилетние прогнозы темпов роста для этого сегмента рынка начинаются в районе 50 миллиардов устройств, но постоянно пересматриваются в сторону увеличения.
За всем этим кроется наблюдение за тем, как по мере роста Интернета больше не отслеживается количество использующих его людей и уровень использования ими сетевых ресурсов – рост Интернета более не зависит от этих показателей. Эта сеть переходит к обслуживанию набора компьютерных устройств, чье использование основано на избыточной модели: избыточные мощности обработки, избыточные средства хранения и избыточные сетевые ресурсы. Мы на самом деле не понимаем, что означает «крупнее» в контексте спроса. Лучшее, что мы можем сделать, это продолжать стратегию последних двух десятилетий: вкладывать капитал, экспертные знания и ресурсы сразу же, как только они становятся доступными. Похоже, мы по-прежнему пытаемся угнаться за спросом, и, независимо от размера получившейся сети, модель ее использования способна с лихвой это переварить.
Быстрее
Одновременно со строительством более крупных сетей, имея в виду как количество подключенных устройств и клиентов, так и объем перемещаемых по сетям данных, мы стремимся сделать так, чтобы эти данные проходили через сеть как можно быстрее.
Происходит развертывание мобильных сетей доступа высокой пропускной способности, и сегодня для многих потребителей даже скорости передачи данных стандарта 3G являются неприемлемо низкими. Отрасль побуждают развертывать системы 5G, которые способны передавать данные в конечные точки с хваленой пиковой скоростью 20 Гбит/с. Возможно, такая скорость достижима в условиях «стремительного спуска с горы, когда ветер дует в спину», однако ожидания потребителей, что мобильные сети способны обеспечивать пропускную способность, измеряемую сотнями мегабит в секунду, для подключенных устройств, выглядят вполне оправданными. В современном мире использование проводных DSL-технологий и более общих форм передачи цифрового сигнала через кабельные системы прошлого поколения, состоящие из витых медных пар, в основном уже является неактуальным, а само использование технологий доступа на базе инфраструктуры медных кабелей продолжает убывать. Происходит переоснащение нашей проводной среды за счет прокладки оптоволоконных кабелей, а единицей измерения пропускной способности становятся уже не мегабиты, а гигабиты в секунду.
Однако скорость – это не только пропускная способность систем обмена данных, но и сама скорость передачи. Здесь вступают в силу непреложные законы физики, которые подразумевают неизбежную задержку распространения сигнала, передаваемого от отправителя получателю. Если под понятием «быстрее» понимать не только объем брутто передаваемых данных, но и быстроту реагирования системы на запросы клиента, то пользователь заинтересован в обеих характеристиках. Ему необходима как низкая задержка, так и высокая пропускная способность, и единственный способ этого добиться заключается в уменьшении «пакетных миль» для каждой транзакции. При передаче контента и предоставлении доступа к услугам в рамках сетей доступа можно резко снизить неизбежную задержку между двумя сторонами (отправителем и получателем). В результате благодаря более быстрому обмену данными протокола система становится более «отзывчивой».
Однако сделать сети быстрее можно не только за счет перемещения услуг ближе к клиентским устройствам. Специалисты стараются повысить эффективность протоколов, что позволит осуществлять транзакции при меньшем количестве обменов запросами между клиентом и сервером. Все это приводит к повышению «отзывчивости» сети, которую пользователь ощущает как увеличение скорости ее работы.
Понятие «быстрее» включает в себя:
- увеличение пропускной способности сетей доступа «последней мили»;
- перевод всех видов контента и доставки услуг в сети распределения контента с высоким уровнем репликации;
- повышение плотности точек распределения контента с целью перемещения серверов и сервисов ближе к пользователю;
- опережающее предоставление контента, позволяющее выполнять всю сервисную транзакцию в сети доступа «последней мили»;
- проектирование прикладной среды с учетом повышения скорости ее реакции;
- улучшение характеристик транспортных протоколов.
Цель заключается в том, чтобы удалить из сетевых транзакций этап передачи данных на дальнее расстояние. Благодаря прогнозированию потребностей и предварительному перемещению контента в точки доставки дата-центров можно избавиться от неизбежных узких мест, которые связаны с дистанционной передачей данных. В сетевых технологиях понятие «ближе» неизменно означает «быстрее».
Лучше
Это понятие имеет более абстрактный смысл, однако если «лучше» значит «более надежно» и «аутентично», то мы движемся в правильном направлении в рамках решения данной наиболее сложной задачи.
В современной среде веб-услуг протокол HTTPS или сеансы передачи зашифрованного и аутентифицированного контента применяются практически повсеместно. В настоящее время специалисты работают над закрытием последней щели в протоколе TLS за счет указания имени сервера (SNI) в сообщении TLS ClientHello. При этом технологии продвинулись еще на один шаг вперед благодаря подходам, предложенным в рамках Oblivious DNS и Oblivious HTTPS, которые предоставляют средства для изоляции любой стороны, даже оператора услуги, от информации о комбинации идентификации клиента и выполняемой транзакции. Это означает, что за исключением клиента никто не будет обладать априорными знаниями о сочетании идентификации и транзакции.
Все разработчики, занимающиеся созданием контента, приложений и платформ, с энтузиазмом развивают разнообразные аспекты конфиденциальности и аутентичности, а вопрос того, до какой степени сетям можно потенциально доверять, больше не стоит на повестке дня. Если сеть не способна извлекать привилегированную информацию, то проблема того, стоит ли ей доверять такую информацию, больше не актуальна. Вопрос доверия включает аспекты передаваемых полезных данных, транзакционных метаданных, например, запросов DNS и даже параметров управления транспортным протоколом. В современных сетях «лучший» результат для пользователей и выбираемых ими услуг достигается в том случае, если мы относимся ко всей сетевой инфраструктуре как к не заслуживающей доверия!
У меня есть подозрение, что произошел безвозвратный переход, и ранее существовавшие уровни предполагаемого доверия между сервисами, приложениями и контентом, с одной стороны, и базовой платформой и сетевой оболочкой, с другой стороны, навсегда исчезли. После того, как было продемонстрировано, что данный уровень доверия подвергается самым разным видам злоупотреблений, среда приложений и услуг принимает все необходимые ответные меры для блокировки каждой точки потенциального риска и утечки данных.
И из этой ситуации нет пути назад. Сегодня концепция внутренней паранойи захватила все уровни стека протоколов. В рамках этой концепции каждый уровень стека открывает другим слоям доступ лишь к функционально минимальному набору позиций информации, который необходим для выполнения запрошенной транзакции, защищая все остальные данные. В настоящее время эта концепция твердо укоренилась в операционной модели сетевого проектирования и эксплуатации, а также в разработке приложений.
Дешевле
Судя по всему, происходит переход в среду избыточных телекоммуникационных и вычислительных ресурсов. Вместе с тем, такие системы характеризуются значительной экономией за счет масштаба. Например, совершенствование систем передачи данных, сопровождавшееся увеличением пропускной способности кабельных систем в миллионы раз, не привело к соразмерному повышению цены кабельных систем, а в некоторых случаях капитальные и эксплуатационные издержки более крупных систем в течение ряда лет фактически понизились. В результате удельные расходы на передачу бита информации на единицу расстояния резко упали.
Избыточность также привела к уходу от тарифов на транзакцию. Плата в один пенни за отправку письма по почте или поминутный тариф для телефонных звонков имели когда-то экономический смысл, но единичная стоимость сетевой транзакции обычно столь мала, что внедрение для цифровых услуг модели стоимостного транзакционного тарифа представляется неосуществимой задачей.
Вместе с тем, произошло «съеживание» сети, которое привело к переводу сервисных транзакций на локальный уровень. Как мы это уже наблюдали, рост использования модели сетей распределения контента (content distribution network, CDN) изменил Интернет. Благодаря предварительной доставке контента в окрестности каждой пограничной точки, последующая запрашиваемая транзакция от сервера к клиенту реализуется на очень малом расстоянии. Однако уменьшение расстояния приводит не только к ускорению сервисной транзакции, но и к снижению расходов на строительство и эксплуатацию инфраструктуры. Уменьшение расстояния означает снижение энергопотребления и улучшение соотношения сигнал/шум. Такое повышение эффективности передачи данных также транслируется в снижение издержек.
В то же время, помимо уменьшения издержек, это влечет за собой и дополнительные выгоды. Некоторые услуги финансируются косвенным образом и, с точки зрения потребителя, пользователь не несет за них никаких видимых расходов. Например, поисковые запросы Google выполняются без взимания с пользователя какой-либо платы – эта услуга косвенно финансируется за счет доходов от рекламы. Такие рекламные поступления стали возможны благодаря тому, что компания Google обладает богатой информацией о профилях своих пользователей и продает эту информацию рекламодателям через средства по управлению рекламными кампаниями. Что интересно, если я в качестве пользователя попытаюсь продать рекламодателям собственный индивидуальный профиль, у меня ничего не получится. На индивидуальном уровне я не являюсь жизнеспособным рынком. Однако если мой профиль агрегировать с несколькими миллиардами профилей других пользователей Интернета, то в совокупности мы будем представлять собой очень ценный рынок. Настолько прибыльный, что он способен полностью финансировать инфраструктуру поиска Google и при этом зарабатывать еще немало денег.
Можно сказать, что значительная часть сервисной среды финансируется провайдерами услуг, которые используют агрегированные активы, недоступные индивидуальным пользователям. Результат получается на качественно ином уровне, особенно если бывшая дорогая услуга, ранее доступная только ограниченной аудитории, которая могла позволить себе собрать команду специальных исследователей, трансформировалась в услугу массового спроса, доступную для всех. Причем такая услуга предлагается не просто по доступной цене. Во многих случаях она становится полностью бесплатной.
Крупнее, быстрее, лучше и дешевле
Часто выражается мнение о том, что невозможно в рамках сетевых технологий добиться одновременного выполнения всех перечисленных выше целей. Однако цифровые сервисные платформы Интернета каким-то образом умудряются этого достичь. Как им это удается?
Подход, на основе которого строятся сервисные платформы, способные справляться с непрерывно растущими нагрузками и обеспечивать постоянное сокращение издержек, заключается не просто в создании более крупных сетей, но и в изменении способа, с помощью которого клиентские устройства получают доступ к этим сервисам. Практически полностью прекратилась передача контента и транзакционной информации через всю сеть и произошел переход к обслуживанию с пограничных точек.
Обслуживание с пограничных точек позволяет уменьшить преодолеваемое пакетами расстояние, что, в свою очередь, снижает сетевые издержки и время реакции, обеспечивая повышение скорости. Похоже, именно эти факторы будут определять следующие несколько десятилетий.
Это не обязательно означает, что сеть становится более «затейливой», функциональной или интеллектуальной. И это точно не вычурно украшенная сеть «New IP» или нечто подобное. На самом деле, я могу утверждать, что все эти факторы являются полной противоположностью перечисленным характеристикам! Развитие Интернета следует той же логике, что и эволюция предшествующих телефонных сетей. Благодаря вытеснению различных функций за пределы сети мы избавляемся от части общих затрат, перекладывая их на подключенные устройства. А компьютерная индустрия отвечает на это созданием более мощных устройств, которые с готовностью берут на себя эти функции. Перемещая сервисы к пограничным точкам сети, мы все больше маргинализируем роль совместно используемой сети в деле предоставления цифровых услуг.
С моей точки зрения, именно эти движущие факторы будут определять следующие 50 лет эволюции компьютерных коммуникаций и цифровых услуг.
Вопросы к размышлению
Если мы правильно идентифицировали важные движущие силы, которые привели нас к сегодняшнему дню, то кажется совершенно разумным считать, что они будут продолжать действовать и в будущем, оказывая влияние на направления развития Интернета и цифровой среды. Весьма вероятно, что будет продолжаться дальнейшее усовершенствование телекоммуникационной инфраструктуры в плане создания более крупных, быстрых, совершенных и дешевых сетевых систем.
Однако я подозреваю, что в современной телекоммуникационной среде существует несколько «зародышей», которые в предстоящие годы поставят перед нами ряд интересных вопросов. Давайте рассмотрим часть таких родственных тем.
Адреса
Прежде всего обратимся к природе «адресации». Интернет позаимствовал ее у телефонных сетей, в которых каждая конечная точка была уникально пронумерована и идентифицирована. Проблема, с которой столкнулся Интернет, заключалась в том, что первоначальные оценки потребностей, равные четырем миллиардам уникальных адресов, оказались неадекватными, и нам пришлось начать затянувшийся на 20 лет, дорогостоящий и все еще не законченный переход на новую версию протокола с гораздо большим адресным пространством – на протокол IPv6. Тот факт, что этот переход еще не завершен и даже не приближается к окончанию, а также наблюдение за тем, что в нем по-прежнему не ощущается никакой острой необходимости, поднимает вопрос, почему мы считаем важным его завершение.
Является ли эта концепция универсальной идентификации конечных точек через протокольную адресацию устаревшей идеей из 1980-х, чье время уже истекло? Является ли эта абсолютная адресация свойством сетевой инфраструктуры, которая не способна угнаться за спросом на все более крупные сети? Должны ли мы отказаться от абсолютной адресации конечных точек и продолжить движение по пути использования трансляторов сетевых адресов и протоколов, более гибких в отношении адресации, как, например, QUIC? И обращаться с такими сетевыми адресами как с кратковременными сеансовыми идентификаторами, которые лишь позволяют сети избавиться от неоднозначности при направлении трафика между двумя параллельными активными сеансами и ничего больше? В то же время по-прежнему существует необходимость в уникальной идентификации услуг и точек доставки услуг, но обязательно ли это должна быть функция сети, или этим может заниматься само сервисное приложение?
Имена
Для того, чтобы компенсировать недостатки адресного пространства IPv4, мы перегружаем пространство имен. В контексте Интернета о DNS думают как о синониме адресов, которые позволяют человеку находить адресата в сети. При этом в систему имен загружают дополнительную информацию и хотят использовать DNS в качестве функции для рандеву сервисов – вместо простого отображения имени в IP-адрес. И DNS теперь не только сообщает нам IP-адрес, на который требуется отправлять IP-пакеты, но и рассказывает о том, какой транспортный протокол следует использовать и какие реквизиты шифрования услуг необходимо задействовать.
Изменение заключается в том, что DNS превращается из общего атрибута сети в набор зависящих от сервиса функций, который способен сообщить каждому клиентскому устройству, каким образом можно получить доступ к названному сервису. Если перефразировать это в более понятных терминах, то являются ли «имена» общим атрибутом сетевой инфраструктуры? Или они стали динамическими и относительными атрибутами сервиса, который разрешает клиентским устройствам «встречаться» с собой?
Ссылки
Второй аспект, связанный с именами, приводит нас к ссылочным оболочкам. Каким образом клиент идентифицирует услугу? Каким образом клиент передает эту идентичность другим участникам в виде ссылки? Критически важное семантическое различие заключается в том, что для индивидуального клиента достаточно идентифицировать услугу в показателях, которые являются автореферентными, однако для ее независимого от клиента использования требуется дополнительный контекст. (Например, я могу найти свой местный магазин по следующей фразе: «повернуть от моего дома налево и идти до следующего перекрестка». Однако другому человеку такой алгоритм принесет мало пользы.)
Для сети с густо реплицированными точками доставки услуг имеется целый ряд дополнительных соображений. Каким образом клиент встречается с «наилучшим» экземпляром точки доставки услуги? Может ли сам клиент определить, какой из альтернативных экземпляров точки доставки является «наилучшим»? Или этот выбор должна взять на себя сеть? Либо это решение необходимо принимать самому сервису? Должна ли ссылка быть абсолютной, но решение о том, куда ведет ссылка и при каком наборе параметров выполняется сервисная транзакция, будет зависеть от клиента? Кто реализует функцию такого решения? Сеть? Или сам сервис?
Двусторонние транзакции
И наконец, если сомнению подвергают основы сетевой инфраструктуры имен и адресов, то что можно сказать о механизме транзакций? Имеет ли смысл по-прежнему представлять себе модель транзакций в виде двустороннего, синхронного обмена данными? В каком контексте имеют смысл многосторонние транзакции? Двусторонние синхронизированные транзакции подходят для многих видов коммуникации между людьми, но являются ли они наилучшим шаблоном для обмена данными между компьютерами?
Очевидно, что сегодня на все эти вопросы нет ясного ответа. Однако я думаю, что такие базовые вопросы о роли и функциях имен, адресов и ссылок представляют собой важнейшую часть эволюции архитектуры компьютерных сетей.
Тренды более длительного времени
Куда это все нас приводит? Похоже, что для построения более крупных, быстрых, совершенных и дешевых сетей нам придется передавать все больше и больше сетевых функций внутренним элементам сети, реплицировать и перемещать их ближе к границам в те места, в которых они окажутся поблизости от клиентских устройств. Кроме того, произошла трансформация мощностей для передачи данных и вычислений из дефицитного и дорогого ресурса в избыточный и дешевый товар. А это означает, что совместное использование объединенных в общий пул ресурсов больше не является неотъемлемой частью доставки услуг. Мы накопили столько ресурсов для передачи данных, вычислений и хранения, что пропала всякая мотивация использовать общую сеть для подключения клиентов к дистанционным точкам доставки услуг. Вместо этого происходит переход этих услуг к предварительному предоставлению контента для клиентов «на всякий случай», а внутренние сети теперь используются для поддержки репликации услуг с целью синхронизации всех пограничных точек доставки.
Это, в свою очередь, предвещает более значительное изменение, в рамках которого приложение перестанет быть окном доступа к дистанционно управляемой услуге, а само превратится в сервис. Я полагаю, что стремление разместить услугу как можно ближе к клиенту закончится тем, что возникнет идея напрямую предоставлять услугу на клиентском устройстве.
Все это приводит нас к финальной паре вопросов, которые я хочу поставить в связи с прогнозом на следующие 50 лет в сфере телекоммуникаций.
По итогам всего обсуждения, будут ли по-прежнему актуальны совместно используемые сети?
В настоящее время мы наблюдаем тренд на лишение сети функций и сокращение расходов на нее с переносом всего этого на конечные устройства. Это позволило добиться снижения издержек, повышения скорости и отзывчивости при предоставлении услуг. Так когда же мы остановимся? Что случится, когда все это будет перенесено на пограничные устройства? Что останется от сети и ее роли?
А как насчет самого «Интернета»?
Что во всем этом определяет «Интернет»?
Мы привыкли к тому, что «Интернет» – это общая сеть, общий протокол и общий пул адресов. Любое подключенное устройство может отправить IP-пакет любому другому подключенному устройству. Таким был Интернет. Если вы используете адреса из пула адресов Интернета, то сами являетесь его частью. Этот общий пул адресов, по сути, и определял Интернет.
Сегодня это уже не так, и если продолжится дробление сети, оболочки протоколов, адресного пространства и даже пространства имен, то что останется от определения «Интернета»? Возможно, все, что останется от «Интернета» в качестве унифицирующей концепции, – это некая аморфная характеристика разнородного набора услуг, использующих общие ссылочные механизмы.
Однако в течение следующих 50 лет я хочу, чтобы сохранилась одна особенность предыдущего 50-летнего периода. Это была сумасшедшая гонка. Нам многократно удавалось подвергать сомнению все, что мы раньше понимали под возможностями этой технологии, сделав по пути несколько удивительных технических открытий. Я бы хотел, чтобы в течение следующих 50 лет мы достигли не меньшего!