Выбрать главу

И все это возможно с помощью современных инструментов, созданных небольшими командами и используемых любителями. Сейчас, когда вы читаете эти строки, вполне вероятно, что национальные оборонные организации в дюжине стран создают свои собственные LLM, не имеющие защитных ограждений. Хотя большинство общедоступных инструментов для создания изображений и видео с помощью искусственного интеллекта имеют определенные гарантии, достаточно продвинутая система без ограничений может создавать по запросу очень реалистичный сфабрикованный контент. Это может быть создание интимных снимков без согласия, политическая дезинформация, направленная на общественных деятелей, или мистификация, направленная на манипулирование ценами на акции. ИИ-помощник без ограничений позволит практически любому человеку создавать убедительные фальшивки, подрывающие конфиденциальность, безопасность и правду. И это определенно произойдет.

ИИ - это инструмент. От того, как он будет использоваться, зависит, будет ли он применяться в полезных или вредных, даже неблаговидных, целях. В одной из исследовательских работ ученых из Карнеги-Меллон Даниила Бойко, Роберта Макнайта и Гейба Гомеса показано, что LLM, подключенный к лабораторному оборудованию и имеющий доступ к химическим реактивам, может запустить для создания и проведения собственных экспериментов по химическому синтезу. Это может значительно ускорить научный прогресс. Но это также создает новые риски в различных аспектах. Благонамеренные исследователи могут почувствовать себя увереннее и продолжить этически сомнительные исследования с помощником ИИ, абстрагирующимся от экспериментов. Государственные программы могут эффективно возобновить запрещенные исследования опасных материалов или эксперименты над людьми. Биохакеры могут внезапно обнаружить, что способны создавать пандемические вирусы под руководством искусственного интеллекта. Даже если нет злого умысла, сами характеристики, позволяющие использовать полезные приложения, открывают двери для вреда. Автономное планирование и демократизированный доступ дают любителям и изолированным лабораториям возможность исследовать и внедрять инновации, которые раньше были недоступны. Но эти возможности также снижают барьеры на пути потенциально опасных или неэтичных исследований в чужие руки. Мы считаем, что большинство террористов и преступников относительно тупы, но ИИ может опасным образом расширить их возможности.

Приведение ИИ в соответствие требует не просто остановить потенциального инопланетного бога, но и учесть другие факторы воздействия, а также стремление создать ИИ, отражающий человечество. Таким образом, проблема согласования - это не только то, что компании, занимающиеся разработкой ИИ, могут решить самостоятельно, хотя они, безусловно, должны играть определенную роль. У них есть финансовые стимулы для продолжения разработки ИИ, и гораздо меньше стимулов для того, чтобы убедиться, что эти ИИ хорошо согласованы, беспристрастны и контролируемы. Кроме того, поскольку многие системы ИИ выпускаются под лицензиями с открытым исходным кодом, доступными для всех желающих, все большее количество разработок ИИ происходит за пределами крупных организаций и не только в Frontier Models.

И это не может быть сделано только правительствами, хотя регулирование, безусловно, необходимо. Хотя администрация Байдена выпустила указ, устанавливающий некоторые первоначальные правила управления развитием ИИ, а мировые правительства сделали согласованные заявления об ответственном использовании ИИ, дьявол кроется в деталях. Государственное регулирование, скорее всего, будет и дальше отставать от фактического развития возможностей ИИ и может затормозить позитивные инновации в попытке остановить негативные результаты. Кроме того, по мере обострения международной конкуренции все более актуальным становится вопрос о том, готовы ли национальные правительства замедлить развитие систем ИИ в своих странах, позволив другим занять лидирующие позиции. Регулирования, скорее всего, будет недостаточно для снижения всех рисков, связанных с ИИ.