Выбрать главу

Конкуренция известных производителей микропроцессоров и новой поросли стартапов за долю быстро растущего рынка искусственного интеллекта вызвала в технологической сфере шквал инноваций и всплеск деловой активности. Некоторые исследователи открывают совершенно новые направления в сфере разработки чипов. Специализированные чипы для глубокого обучения, созданные на основе графических процессоров, оптимизируются с целью ускорения ресурсоемких математических вычислений, выполняемых программами, которые поддерживают глубокие нейронные сети. Новый класс чипов в значительно большей мере имитирует работу мозга, позволяя урезать аппетиты требующего слишком много ресурсов программного слоя и реализовать нейронную сеть на аппаратной основе.

Разрабатываемые «нейроморфные» чипы воплощают аппаратные аналоги нейронов непосредственно в кремнии. IBM и Intel вложили значительные средства в исследования нейроморфных вычислений. Например, экспериментальные чипы Loihi разработки Intel используют 130 000 аппаратных нейронов, каждый из которых может связываться с тысячами других[10]. Одно из важнейших преимуществ ухода от массированных программных вычислений — это энергоэффективность. Человеческий мозг, далеко превосходящий своими возможностями любой существующий компьютер, потребляет лишь около 20 Вт — существенно меньше, чем средняя лампа накаливания. В отличие от него, системы глубокого обучения на основе графических процессоров требуют очень много электричества, и, как будет показано в главе 5, их масштабирование при таком энергопотреблении, скорее всего, невозможно. Нейроморфные чипы, конструкция которых восходит к нейронной сети головного мозга, гораздо менее прожорливы. Intel заявляет, что в некоторых модификациях ее чипы Loihi до 10 000 раз более энергоэффективны, чем традиционные микропроцессоры. После запуска коммерческого производства эти чипы, скорее всего, быстро найдут применение в мобильных и других устройствах, для которых важна энергоэффективность. Ряд специалистов в области ИИ идут намного дальше в своих прогнозах, полагая, что нейроморфные чипы — это будущее искусственного интеллекта. Например, по мнению исследовательской фирмы Gartner, нейроморфные структуры вытеснят графические процессоры в качестве основной аппаратной платформы ИИ к 2025 году[11].

Облачные вычисления как основная инфраструктура ИИ

Современная индустрия облачных вычислений зародилась в 2006 году с вводом в действие платформы Amazon Web Services, или AWS. Amazon, опираясь на свой опыт создания и обслуживания гигантских дата-центров для поддержки онлайновой торговли, решила продавать широкому кругу клиентов гибкий доступ к вычислительным ресурсам. В 2018 году AWS обслуживала более 100 дата-центров в девяти странах мира[12]. Рост облачных сервисов Amazon и ее конкурентов поражает воображение. Согласно недавнему исследованию, сегодня 94 % организаций, от транснациональных корпораций до мелких и средних фирм, пользуются облачными вычислениями[13]. К 2016 году AWS росла настолько быстро, что новые вычислительные ресурсы, добавляемые Amazon к своей системе каждый день, были сопоставимы со всеми возможностями компании на конец 2005 года[14].

До появления облачных провайдеров фирмам и организациям приходилось покупать и обслуживать собственные серверы и программное обеспечение и иметь команду высокооплачиваемых специалистов для поддержки и апгрейда систем. Благодаря облачным вычислениям значительная часть этих задач отдается на аутсорсинг таким провайдерам, как Amazon, способным обеспечить эффективность благодаря эффекту масштаба. Облачные серверы обычно располагаются в огромных зданиях площадью сотни тысяч квадратных метров, стоимостью больше миллиарда долларов. Доступ к облачным сервисам часто предоставляется по запросу, когда клиент пользуется вычислительными мощностями, хранением данных и приложениями столько, сколько нужно, и платит только за потребленные ресурсы.

Несмотря на огромный физический размер зданий для размещения облачных серверов, все там настолько автоматизировано, что нередко обслуживается поразительно малочисленным персоналом. Сложные алгоритмы, управляющие практически всеми процессами, обеспечивают уровень точности, недостижимый при непосредственном контроле человека. Даже потребление электроэнергии — оно огромно — и отвод большого количества тепла, выделяемого десятками тысяч серверов, во многих случаях оптимизируются непрерывно. Одной из первых практических реализаций разработок компании DeepMind в области ИИ стала система глубокого обучения, способная оптимизировать работу систем охлаждения в дата-центрах Google. DeepMind заявляет, что ее нейронная сеть, которая обучалась на массиве данных от сенсоров, размещенных во всех помещениях дата-центра Google, смогла почти на 40 % сократить расход энергии на охлаждение[15]. Алгоритмическое управление дает реальный выигрыш. Как показало исследование, отчет о котором был опубликован в феврале 2020 года, «если объем вычислений, выполняемых дата-центрами, вырос с 2010 по 2018 год примерно на 550 %, то потребление энергии увеличилось за тот же период лишь на 6 %»[16]. Разумеется, автоматизация влияет на потребность в персонале. Переход к облачным вычислениям и последовавшее за ним исчезновение огромного числа рабочих мест для технических специалистов, когда-то обслуживавших вычислительные ресурсы в тысячах организаций, вероятно, внесли существенный вклад в прекращение стремительного роста занятости в технологической сфере, наблюдавшегося в конце 1990-х годов.

вернуться

10

«Neuromorphic computing,» Intel Corporation, accessed May 3, 2020, www.intel.com/content/www/us/en/research/neuromorphic-computing.html.

вернуться

11

Sara Castellanos, «Intel to release neuromorphic-computing system,» Wall Street Journal, March 18, 2020, www.wsj.com/articles/intel-to-release-neuromorphic-computing-system-11584540000.

вернуться

12

Linda Hardesty, «WikiLeaks publishes the location of Amazon’s data centers,» SDXCentral, October 12, 2018, www.sdxcentral.com/articles/news/wikileaks-publishes-the-location-of-amazons-data-centers/2018/10/.

вернуться

13

«RightScale 2019 State of the Cloud Report from Flexera,» Flexera, 2019, resources.flexera.com/web/media/documents/rightscale-2019-state-of-the-cloud-report-from-flexera.pdf, p. 2.

вернуться

14

Pierr Johnson, «With the public clouds of Amazon, Microsoft and Google, big data is the proverbial big deal,» Forbes, June 15, 2017, www.forbes.com/sites/johnsonpierr/2017/06/15/with-the-public-clouds-of-amazon-microsoft-and-google-big-data-is-the-proverbial-big-deal/.

вернуться

15

Richard Evans and Jim Gao, «DeepMind AI reduces Google data centre cooling bill by 40 %,» DeepMind Research Blog, July 20, 2016, deepmind.com/blog/article/deepmind-ai-reduces-google-data-centre-cooling-bill-40.

вернуться

16

Urs Hölzle, «Data centers are more energy efficient than ever,» Google Blog, February 27, 2020, www.blog.google/outreach-initiatives/sustainability/data-centers-energy-efficient/.