» » Перспективы развития облачных технологий: тензорные вычисления

Перспективы развития облачных технологий: тензорные вычисления

Перспективы развития облачных технологий: тензорные вычисленияОблачные технологии по праву считаются одной из передовых технологий наравне с искусственным интеллектом и «интернетом вещей» (IoT).

Специалисты придерживаются точки зрения, что отечественный облачный рынок однозначно вырастет, но пока сложно сказать насколько. Предполагается, что средние темпы роста составят 25-30%, хотя некоторые эксперты прогнозируют и все 50%. В любом случае облачные технологии будут все активнее интегрироваться в российскую бизнес-среду.

 Как и раньше, центральное место на рынке облачных услуг займет SaaS (примерно 70%). Однако наиболее активно будет расти другой сегмент – IaaS, многие считают его самым перспективным и востребованным в будущем. Что касается PaaS, то в России эта услуга пока не получила широкого распространения – на нее приходится всего несколько процентов от всего объема облачных сервисов. Одним из наиболее важных событий 2018 года стал выход на облачный рынок крупных технологических компаний и банков. Безусловно, это приведет к усилению конкуренции на облачном рынке. Технологическими трендами в 2019 году станут контейнеризация, микросервисная архитектура, мультиоблачность и использование гибридных облаков. Кроме того, в этом году было достаточно изменений в законодательстве, касающемся безопасности данных. Это оказало прямое влияние на облачных провайдеров и предоставляемые ими услуги. Среди всего этого многообразия выделяется относительно новая технология – тензорные вычисления в облаке. Вероятно, именно они станут флагманом развития облачных сервисов в будущем. На сегодняшний день ясно одно: развитие тензорных мощностей в Big Data – один из основных трендов на 2019–2020-е годы.

Тензорные вычисления в облаке

Тензорные технологии уже реализованы в таких продуктах, как Intel Movidius и Gyrfalcon Laceli. Они предлагают компактные и недорогие устройства для нейросетевых вычислений на оборудовании, для которого первоначально не были рассчитаны из-за недостаточного объема вычислительных ресурсов. Александр Кривошей, заместитель директора по техническим вопросам в компании CorpSoft24, полагает, что разработчики на этом не остановятся: «Будет расширено использование серийных разработок таких тензорных вычислений, как Intel Movidius и его аналогов. Одним из самых современных продуктов-конкурентов из силиконовой долины является Gyrfalcon Laceli – он в 20 раз мощнее решения Intel Movidius». Но рынок технологий очень подвижен, и новые разработки появляются практически мгновенно. Не так давно компания Google представила свой собственный продукт – специализированный чип Tensor Processing Unit (TPU).

По заявлению генерального директора Сундара Пичаи (Sundar Pichai), TPU обеспечат в своей области настоящий прорыв и превзойдут решения на базе FPGA и GPU, включая NVIDIA Pascal GP100. Tensor Processing Units (TPU) – это разработанные Google специализированные интегральные схемы (ASIC), которые позволяют значительно увеличить производительность системы при использовании машинного обучения. А оно, в свою очередь, позволило обеспечить прорыв в самых разных областях науки и бизнеса: от усиления сетевой безопасности до повышения точности медицинских диагнозов. Cloud TPU запускает рабочие нагрузки машинного обучения на аппаратном ускорителе Google TPU с помощью программной библиотеки TensorFlow.

Собственно, эта библиотека и дала тензорным процессорам свое название. TPU получили известность в качестве искусственного интеллекта, который смог обыграть человека в популярной в Азии игре го. Ранее не получалось рассчитать алгоритм для победы в этой игре. Причиной этого чаще всего называли многовариантность и обязательное наличие развитого мышления у играющих. Тензоры прежде всего предназначены для достижения максимальной производительности и гибкости системы, а также для значительного ускорения алгоритмов искусственного интеллекта. По мнению Александра Кривошея, посредством массового применения тензорных процессоров в облаках тензорные вычисления удастся внедрить не только в централизованной обработке Big Data, но и в распределенных IoT-решениях. Также не менее важная цель – помочь разработчикам создать вычислительные кластеры TensorFlow, которые могут использовать процессоры (CPU), графические процессоры (GPU) и тензоры (TPU).

В чем заключается принципиальное отличие тензоров от уже привычных центральных процессоров? В работе TPU используют нейронные сети, состоящие из множества связанных между собой математических функций. А те, в свою очередь, являются моделью (имитацией) человеческого мозга. Процесс обучения искусственного интеллекта точно такой же, как и возникновение новых связей в нейронной сети в результате реакции на полученные импульсы. Так, чисто человеческие функции – распознавание речи и изображений – с появлением машинного обучения (и TPU в частности) стали подвластны и искусственному интеллекту.

Подготовка модели машинного обучения аналогична компиляции кода. Практически непрерывно появляются новые приложения, которые затем неоднократно тестируются и совершенствуются. Чтобы модели оставались актуальными, их нужно многократно обучать. Кроме того, процесс по возможности должен проходить быстро и быть не слишком затратным. Облачные ресурсы TPU ускоряют выполнение вычислений, которые активно применяются в приложениях машинного обучения. Тензоры минимизируют время, требуемое на обучение обширных и сложных моделей нейронных сетей. Если раньше этот процесс мог занимать недели, то сейчас при помощи TPU можно выполнить работу за несколько часов.

Тензоры после подключения к виртуальным машинам помогают сбалансировать скорости процессора, память и высокопроизводительные ресурсы хранения для всех рабочих нагрузок. Облачные TPU оперативно выполняют векторные и матричные вычисления. Модель программирования Cloud TPU предназначена для выполнения большей части обучения на TPU – в идеале, всего цикла обучения. Облако TPU обеспечивает широкие вычислительные возможности и позволяет компаниям получать доступ к Tensor Processing Unit, чтобы ускорить процесс машинного обучения в Google Cloud. В одном модуле Cloud TPU может обеспечить до 11,5 петафлопс производительности. В каких же случаях использование облачных TPU станет наиболее оправданным решением? Во-первых, если в моделях преобладают матричные вычисления. Во-вторых, если внутри основного цикла обучения не будет пользовательских операций TensorFlow. И в-третьих, при использовании моделей с огромным количеством данных, а также в случаях, когда тренировки моделей занимают длительное время – недели и месяцы.

Но не следует забывать, что тензоры все-таки не настолько универсальны, и в некоторых случаях без CPU и GPU не обойтись. Например, при необходимости оперативного прототипирования, требующего максимальной гибкости, стоит прибегнуть к помощи процессора. Другой вариант: модели не могут быть написаны в TensorFlow или, наоборот, имеют значительное количество пользовательских операций TensorFlow, которые должны хотя бы частично выполняться на процессорах. В этом случае понадобятся графические процессоры. Конечно, иногда использование тензорных вычислений вовсе нецелесообразно, а именно: при использовании в расчетах арифметики двойной точности, матричного умножения в большом количестве и т.д. В настоящее время стоимость TPU слишком высока, на это влияют огромные финансовые вливания в разработку и улучшение. Пока данная технология чаще всего доступна только крупным международным корпорациям или правительственным учреждениям. Другим ограничением может стать слишком узкая сфера применения (на данный момент), а также неспособность выполнять операции, не предусмотренные изначально.

Сделано в России

Наши специалисты стараются не отставать от своих американских коллег. В октябре 2018 года российская компания IVA Technologies анонсировала создание отечественного тензорного микропроцессора IVA TPU, на который в скором времени должна получить патент. Презентация тестового образца микросхемы IVA запланирована на 2019 году. Разработчики амбициозно заявили, что их IVA TPU превзойдет версию Google. Но уже сейчас готов макет российского тензорного процессора на базе ПЛИС (программируемой логической интегральной схемы). Он предусматривает использование свободного ПО, имеющего производительность более 20 TOPS, экономичное энергопотребление, но самое главное – огромное преимущество в скорости обработки информации перед графическими процессорами.

Москву ждет дефицит мощностей

Если говорить о менее глобальных вещах, то на региональном уровне (а конкретнее – в Москве) ситуация на облачном рынке складывается менее оптимистично. Эксперты прогнозируют отсутствие или значительный недостаток свободных мест для хранения данных. Как результат – увеличение стоимости услуг примерно на 15%. Но специалисты считают, что не только дефицит мощностей станет причиной роста цен – также повлияют повышение НДС и энерготарифов. В данный период в Москве уровень утилизации (отношение количества занятых стоек к количеству свободных) составляет примерно 75%, что является довольно высоким показателем (100%-ая утилизация невозможна по определению).

За последние два года сильно увеличился приток иностранных клиентов, работающих совместно с отечественными компаниями. Кроме того, международные корпорации обязаны выполнять требования «закона Яровой», вступившего в силу 1 июля 2018 года. Согласно принятому закону, операторы связи и интернет-компании обязаны хранить записи разговоров пользователей и переписку в течение шести месяцев, а с 1 октября этого года – еще и информацию об их интернет-активности.

Несмотря на значительное увеличение количества стоек, в ближайшее время мощностей все равно не будет хватать. И это ожидаемо: в эпоху всеобщей цифровизации бизнеса всё больше компаний использует в своей работе облачные сервисы. Кроме того, недавно ряд крупных китайских компаний, занимающихся технологиями и электронной коммерцией, выкупили значительную часть мощностей в московских data-центрах. В 2018 г. наблюдался очень резкий рост рынка, поэтому владельцы ЦОДов не успели позаботиться о размещении на новых построенных площадках. Нужно понимать, что подобные проекты имеют высокую стоимость, а также требуют резервирования инженерной инфраструктуры, которая соответствует требованиям, предъявляемым к дата-центрам уровня Tier III.

Больше половины всех дата-центров и, соответственно, стоек расположены в Москве – это провоцирует «территориальную перегрузку». В связи с этим вполне вероятно, что интерес компаний сместится в сторону ЦОДов в Санкт-Петербурге. Сейчас уже ведется активное строительство новых дата-центров, и во второй половине 2019 года действующие ЦОДы получится в той или иной степени освободить, но основной ввод новых мощностей ожидается в 2020 году. Также на сегодняшний день уже разработан план развития цифровой экономики, согласно которому к 2024 году в отечественных ЦОДах будет насчитываться около 80 тыс. стоек.
Опрос
Где вы получили знания по программированию?

Последние комментарии