Выбрать главу

 

9.

A

И КАК НАШЕ БУДУЩЕЕ

Может показаться, что эта книга полна научной фантастики, но все, что я описываю, уже произошло. Мы создали странный инопланетный разум, который не является разумным, но может удивительно хорошо его имитировать. Он обучается на огромных архивах человеческих знаний, а также на спинах низкооплачиваемых рабочих. Он может проходить тесты и действовать творчески, способный изменить наши методы работы и обучения; но он также регулярно выдумывает информацию. Вы больше не можете доверять тому, что все, что вы видите, слышите или читаете, не было создано ИИ. Все это уже произошло. Люди - ходячие и говорящие мешки с водой и микрохимикатами, которыми мы являемся, - сумели убедить хорошо организованный песок притвориться, что он думает так же, как мы.

Что будет дальше - это научная фантастика, вернее, научные выдумки, потому что существует множество возможных вариантов развития событий. Я вижу четыре четких варианта того, что произойдет в ближайшие несколько лет в мире ИИ. Однако последствия каждой из них не столь очевидны. Я хочу рассказать вам о каждой из этих возможностей и о том, как в результате будет выглядеть мир.

Давайте начнем с самого маловероятного будущего, которое, как ни тревожно, не является возможностью AGI. Гораздо менее вероятной является возможность того, что ИИ уже достиг своих пределов, но именно с этого мы и начнем.

Сценарий 1: Как бы хорошо это ни было

Что если ИИ перестанет делать огромные скачки вперед? Конечно, здесь и там могут быть небольшие улучшения, но в этом будущем они будут исчезающе малы по сравнению с огромными скачками, которые мы видели в GPT-3.5 и GPT-4. ИИ, который вы используете сейчас, действительно лучший из тех, что вы когда-либо будете использовать.

С технической точки зрения такой исход кажется нереальным. Нет причин подозревать, что мы достигли какого-то естественного предела в способности ИИ к совершенствованию. Но это не значит, что ИИ неизбежно будет становиться все умнее: исследователи выявили множество возможных проблем с архитектурой и обучением, которые в какой-то момент могут ограничить их возможности. Например, у систем ИИ могут закончиться данные для обучения; или стоимость и усилия по наращиванию вычислительной мощности для работы ИИ могут стать слишком большими, чтобы их оправдать. Однако нет достаточных доказательств того, что предел уже достигнут, и даже если бы он был достигнут, есть и другие изменения, которые можно внести в LLM, чтобы выжать из систем больше на годы вперед. И LLM - это лишь один из подходов к ИИ; другие технологии-преемники могут преодолеть эти ограничения.

Чуть более вероятен мир, в котором нормативные или юридические меры остановят развитие ИИ в будущем. Возможно, эксперты по безопасности ИИ убедят правительства запретить разработку ИИ, дополнив это угрозами применения силы против тех, кто посмеет нарушить эти ограничения. Но, учитывая, что большинство правительств только начинают рассматривать вопрос о регулировании, а также отсутствие международного консенсуса, представляется крайне маловероятным, что глобальный запрет произойдет в ближайшее время или что регулирование заставит развитие ИИ остановиться.

Тем не менее, похоже, что большинство людей и организаций планируют именно этот сценарий. И я понимаю это отрицание. Большинство людей не просили создавать ИИ, который сможет выполнять множество задач, ранее предназначенных для людей. Учителя не хотели, чтобы почти все виды домашних заданий мгновенно решались компьютером. Работодатели не хотели, чтобы высокооплачиваемые задачи, которые имеют смысл только при выполнении человеком (оценка работы, отчетность), вместо них выполняли машины. Правительственные чиновники не хотели, чтобы совершенная система дезинформации была выпущена без каких-либо полезных контрмер. Мир стал гораздо более странным, причем очень быстро.