Первой проблемой Intel стал искусственный интеллект. К началу 2010-х годов основной рынок компании - поставка процессоров для ПК - пришел в упадок. Сегодня, кроме геймеров, почти никто не обновляет свой ПК при выходе новой модели, и большинство людей не задумываются о том, какой процессор стоит внутри. Другой основной рынок Intel - продажа процессоров для серверов в центрах обработки данных - в 2010-х годах переживал бум. Amazon Web Services, Microsoft Azure, Google Cloud и другие компании построили сети огромных центров обработки данных, которые обеспечили вычислительную мощность, позволившую создать "облако". Большинство данных, которые мы используем в Интернете, обрабатываются в одном из дата-центров этих компаний, каждый из которых напичкан чипами Intel. Но в начале 2010-х годов, как раз когда Intel завершила завоевание ЦОД, требования к вычислительной технике начали меняться. Новым трендом стал искусственный интеллект - задача, для решения которой основные чипы Intel были мало приспособлены.
Начиная с 1980-х годов Intel специализируется на производстве микросхем типа CPU (центральный процессор), одним из примеров которых является микропроцессор в ПК. Именно эти микросхемы служат "мозгом" компьютера или центра обработки данных. Это рабочие лошадки общего назначения, способные в равной степени открыть веб-браузер или запустить Microsoft Excel. Они могут выполнять множество различных вычислений, что делает их универсальными, но эти вычисления выполняются последовательно, один за другим.
Можно запустить любой алгоритм ИИ на процессоре общего назначения, но масштабы вычислений, необходимых для ИИ, делают использование процессоров непомерно дорогим. Стоимость обучения одной модели ИИ - используемых чипов и потребляемой ими электроэнергии - может исчисляться миллионами долларов. (Чтобы научить компьютер распознавать кошку, нужно показать ему множество кошек и собак, чтобы он научился их различать. Чем больше животных требует алгоритм, тем больше транзисторов нужно).
Поскольку рабочие нагрузки ИИ часто требуют многократного выполнения одних и тех же вычислений, каждый раз используя разные данные, поиск способа адаптации чипов для алгоритмов ИИ имеет решающее значение для обеспечения их экономической целесообразности. Крупные компании, занимающиеся облачными вычислениями, такие как Amazon и Microsoft, которые управляют центрами обработки данных, на которых работают алгоритмы большинства компаний, ежегодно тратят десятки миллиардов долларов на покупку чипов и серверов. Кроме того, они тратят огромные средства на оплату электроэнергии для этих центров обработки данных. Выжимать из своих чипов максимум эффективности - необходимость, поскольку они конкурируют за право продавать компаниям место в своем "облаке". Чипы, оптимизированные для ИИ, могут работать быстрее, занимать меньше места в дата-центрах и потреблять меньше энергии, чем универсальные процессоры Intel.
В начале 2010-х годов до компании Nvidia - разработчика графических чипов - дошли слухи о том, что аспиранты из Стэнфорда используют графические процессоры Nvidia не только для работы с графикой. GPU были разработаны для работы в отличие от стандартных CPU Intel или AMD, которые обладают бесконечной гибкостью, но выполняют все свои вычисления последовательно. GPU, напротив, рассчитаны на одновременное выполнение нескольких итераций одного и того же вычисления. Вскоре стало ясно, что этот тип "параллельной обработки" может использоваться не только для управления пикселями изображений в компьютерных играх. Он также позволяет эффективно обучать системы искусственного интеллекта. Если центральный процессор подает алгоритму множество данных один за другим, то графический процессор может обрабатывать множество данных одновременно. Чтобы научиться распознавать изображения кошек, центральный процессор будет обрабатывать пиксель за пикселем, в то время как графический процессор может "смотреть" на множество пикселей одновременно. Таким образом, время, необходимое для обучения компьютера распознаванию кошек, значительно сократилось.
С тех пор компания Nvidia делает ставку на искусственный интеллект. С момента своего основания компания Nvidia передала производство на аутсорсинг, в основном в компанию TSMC, и неустанно занималась разработкой новых поколений графических процессоров и регулярным совершенствованием специального языка программирования CUDA, позволяющего легко разрабатывать программы, использующие чипы Nvidia. Поскольку инвесторы делают ставку на то, что центры обработки данных будут требовать все больше графических процессоров, Nvidia стала самой дорогой полупроводниковой компанией Америки .