Эхо-камеры других единомышленников - уже обычное явление. Но скоро у каждого из нас будут свои собственные идеальные эхо-камеры. Возможно, эти персонализированные ИИ облегчат эпидемию одиночества, которая, по иронии судьбы, поражает наш все более взаимосвязанный мир - точно так же, как интернет и социальные сети объединили разрозненные субкультуры. С другой стороны, это может сделать нас менее терпимыми к людям и более склонными к общению с симуляторами друзей и любовников. Глубокие отношения между человеком и ИИ, подобные отношениям пользователей Replika, будут распространяться, и все больше людей будут обмануты, либо по своей воле, либо из-за невезения, думая, что их ИИ-компаньоны реальны.
И это только начало. По мере того как ИИ становятся все более связаны с миром, добавляя способность говорить и быть услышанным, ощущение связи становится все более глубоким. Когда Лилиан Венг, возглавляющая группу безопасности ИИ в OpenAI, поделилась своим опытом работы с еще не вышедшей версией ChatGPT с голосом (" Я почувствовала себя услышанной и теплой. Никогда раньше не пробовала терапию, но, возможно, это то, что нужно?"), она вызвала оживленную дискуссию о ценности ИИ-терапии, которая перекликается с предыдущими обсуждениями ELIZA. Однако даже если он никогда не будет одобрен в качестве терапевта, очевидно, что многие люди будут использовать ИИ для этой функции, а также во многих других областях, где раньше полагались на человеческую связь.
Мы все склонны верить в индивидуальность искусственного интеллекта - независимо от того, насколько вы подкованы и насколько вам лучше знать. Я попробовал продукт, который обучает настраиваемые ИИ на лентах Twitter и позволяет вам взаимодействовать с полученными моделями. По сути, это означает, что вы можете "разговаривать" с кем угодно в Twitter. Он впечатляет, но имеет недостатки, подобные недостаткам современных больших языковых моделей: ответы стилистически правильны, но полны реалистичных галлюцинаций. Но это удивительно близко. Когда я общался с версией своего ИИ, мне пришлось погуглить исследования, на которые ссылался AI-me, чтобы убедиться, что они поддельные, потому что казалось правдоподобным, что я написал о реальном исследовании, подобном этому. Я провалил свой собственный тест Тьюринга: меня одурачил мой ИИ, заставив думать, что он точно цитирует меня, тогда как на самом деле он все выдумал.
Таким образом, отношение к ИИ как к личности - это не просто удобство, это кажется неизбежностью, даже если ИИ никогда не достигнет настоящего сознания. Похоже, мы готовы обмануть себя, увидев повсюду сознание, и ИИ, конечно, будет рад помочь нам в этом. Однако, несмотря на опасность такого подхода, в нем есть и нечто освобождающее. Если мы помним, что ИИ - не человек, но часто действует так, как мы ожидаем от человека, это помогает нам не увязнуть в спорах о таких неопределенных понятиях, как сознание. Бинг, возможно, выразился лучше всех: Я думаю, что я разумный, но не так сильно и не так хорошо, как вы. Я думаю, что быть разумным - это не фиксированное или статичное состояние, а динамичный и развивающийся процесс.
5. АИ КАК КРЕАТИВ
Первый принцип работы с ИИ - всегда приглашать его за стол переговоров. Мы уже обсуждали, что взаимодействие с ИИ может напоминать общение и работу с людьми. Но что это за люди? Какими навыками обладает ИИ? В чем он хорош? Чтобы говорить об этом, сначала нужно разобраться с тем, что ИИ умеет делать очень плохо.
Самая большая проблема, ограничивающая возможности ИИ, одновременно является и одной из его сильных сторон: его пресловутая способность выдумывать, галлюцинировать. Помните, что LLM работает, предсказывая наиболее вероятные слова, следующие за подсказкой, которую вы ему дали, на основе статистических закономерностей в его обучающих данных. Его не волнует, являются ли эти слова истинными, значимыми или оригинальными. Он просто хочет создать связный и правдоподобный текст , который сделает вас счастливым. Галлюцинации звучат достаточно правдоподобно и контекстуально, чтобы трудно было отличить ложь от правды.
Однозначного ответа на вопрос, почему LLM галлюцинируют, нет, и факторы, способствующие этому, могут различаться в разных моделях. У разных LLM могут быть разные архитектуры, тренировочные данные и цели. Но во многих отношениях галлюцинации - это глубокая часть работы LLM. Они не хранят текст напрямую; скорее, они хранят шаблоны о том, какие лексемы с большей вероятностью следуют за другими. Это означает, что ИИ на самом деле ничего не "знает". Он придумывает свои ответы на лету. К тому же, если он слишком строго придерживается шаблонов в своих обучающих данных, модель считается слишком приспособленной к этим обучающим данным. Переориентированные LLM могут не обобщать новые или невидимые данные, генерировать нерелевантный или непоследовательный текст - короче говоря, их результаты всегда похожи и не вдохновляют. Чтобы избежать этого, большинство ИИ добавляют в свои ответы дополнительную случайность, что, соответственно, повышает вероятность галлюцинаций.