ИИ становился привилегией. Исключительно эксклюзивной.
Еще со времен ImageNet было ясно, что масштаб важен, но в последние годы это понятие приобрело почти религиозное значение. Средства массовой информации были перенасыщены стоковыми фотографиями серверных помещений размером с городской квартал и бесконечными разговорами о "больших данных", укрепляя идею масштаба как своего рода магического катализатора, призрака в машине, который отделял старую эру ИИ от бездыханного, фантастического будущего. И хотя анализ мог стать немного упрощенным, он не был ошибочным. Никто не мог отрицать, что нейронные сети действительно процветали в эпоху изобилия: ошеломляющие объемы данных, массивные многоуровневые архитектуры и акры взаимосвязанного кремния действительно привели к историческим изменениям.
Что это означало для науки? Что это говорит о наших усилиях как мыслителей, если секрет нашей работы может быть сведен к чему-то столь голому, количественному? К тому, что в конечном итоге кажется грубой силой? Если идеи, которые, казалось бы, проваливались при слишком малом количестве слоев, или слишком малом количестве обучающих примеров, или слишком малом количестве GPU, внезапно оживали, когда их количество просто достаточно увеличивалось, какие уроки мы должны были извлечь о внутренней работе наших алгоритмов? Все чаще и чаще мы обнаруживали, что наблюдаем за ИИ эмпирически, как будто он возникает сам по себе. Как будто ИИ - это нечто, что нужно сначала определить, а потом понять, а не разрабатывать на основе первых принципов.
Характер наших отношений с искусственным интеллектом менялся, и это было интригующей перспективой для ученого. Но с моего нового места работы в Google Cloud, откуда с высоты птичьего полета открывается вид на мир, все больше зависящий от технологий на всех уровнях, сидеть сложа руки и удивляться тому, что все это происходит, было роскошью, которую мы не могли себе позволить. Все, что могло делать это новое поколение ИИ - хорошее или плохое, ожидаемое или иное, - было осложнено отсутствием прозрачности, присущей его конструкции. Тайна была вплетена в саму структуру нейронной сети - некоего колоссального множества крошечных, тонко взвешенных единиц принятия решений, бессмысленных по отдельности, ошеломляюще мощных при организации в самых больших масштабах и, таким образом, практически не поддающихся человеческому пониманию. Хотя мы могли говорить о них в некотором теоретическом, отстраненном смысле - что они могут делать, какие данные им нужны для этого и каков общий диапазон их характеристик после обучения, - что именно они делают внутри, от одного обращения к другому, было совершенно непрозрачно.
Особенно тревожным следствием этого факта стало появление угрозы, известной как "атаки противника", при которых исходные данные подготавливаются с единственной целью - запутать алгоритм машинного обучения, чтобы добиться неинтуитивных и даже разрушительных целей. Например, фотография, на которой, казалось бы, изображено нечто однозначное - жираф на фоне голубого неба, - может быть изменена с помощью тонких колебаний цветов отдельных пикселей, которые, хотя и незаметны для человека, вызовут каскад сбоев в нейронной сети. При правильной настройке результат может превратить правильную классификацию, например "жираф", в дико неправильную, например "книжная полка" или "карманные часы", при этом исходное изображение останется неизменным. Но если над зрелищем, когда передовые технологии спотыкаются о фотографии дикой природы, можно только хихикать, то атака противника, призванная обмануть самодвижущийся автомобиль и заставить его неправильно классифицировать знак "Стоп", не говоря уже о ребенке на пешеходном переходе, вряд ли покажется смешной.
Конечно, не исключено, что в этом может помочь более глубокая инженерия. Новое, обнадеживающее направление исследований, известное как "объяснимый ИИ", или просто "объяснимость", стремилось свести почти магические рассуждения нейронных сетей к форме, которую человек мог бы тщательно изучить и понять. Но это направление находилось в зачаточном состоянии, и не было никакой уверенности в том, что оно когда-нибудь достигнет тех высот, на которые рассчитывали его сторонники. Тем временем модели, которые она должна была осветить, распространялись по всему миру.
Даже полностью объяснимый ИИ будет лишь первым шагом; встраивания в уравнение безопасности и прозрачности после факта, каким бы изощренным оно ни было, будет недостаточно. Следующее поколение ИИ должно быть разработано с принципиально иным отношением с самого начала. Энтузиазм - это хороший первый шаг, но настоящий прогресс в решении таких сложных и негламурных задач требует благоговения, которого в Кремниевой долине, похоже, просто не было.