Выбрать главу

Один из главных вопросов: что такое робот? Это же бот, алгоритм, компьютерная программа. Надо ли будет давать роботу отпуск, думать о его правах?

Это некоторое расширение возможностей. Уже в самой формулировке вопроса: сможет ли машина стать субъектом, личностью? - мы подразумеваем некоторую субъектность (мы не спрашиваем себя: сможем ли мы сделать машину личностью?). Это такой роман самовоспитания о том, что она утрачивает всякую связь с нами, обретает некоторую автономность и воспитывает в себе человека. Для меня это вопрос пока еще очень открытый. Хотя... Мы все чаще и чаще читаем о том, что машина способна к самообучению, она начинает ставить себе какие-то промежуточные задачи, которые не были изначально заложены программистом.

При  работе с нейросетями на уровне пользователя, так или иначе в разработку приходится входить немножко руками, и оказывается, что нейросеть — это некоторый черный ящик. Но в этот черный ящик можно заглянуть при помощи определенных методологий и понять, что там, собственно, происходит. А с другой стороны, на самом деле в этом черном ящике предельно все равно стоят только задачи того типа, которые мы туда заложили. Если это распознавание речи или изображения, там могут быть некоторые промежуточные этапы, абсолютно не поддающиеся человеческой логике, но они все равно укладываются в этот пул задач. Распознавая фотографии, нейросеть не вторгнется, например, в систему управления автомобилей с автопилотом.

Интересный случай: нейросеть сделала ошибку, не смогла распознать женщину с велосипедом, нагруженным вещами, коробками и мешками, и совершила наезд. Встает вопрос, кто тут несет уголовную ответственность. Это вечный вопрос – о том, как широко трактуется ответственность создателей и о том, можем ли мы вообще полагать, что машинные системы должны иметь возможность принимать финальные решения без контроля человека.

Системы автопилотируемых дронов, которые решают проблемы террористических атак, сопровождаются довольно серьезной командой операторов и людей, отвечающих за принятие финального решения. Здесь встает вопрос: насколько далеко человек может зайти в доверии по отношению к машинной системе, которую он сам разрабатывал, и перед которой сам ставит определенные задачи, но не в полной мере и не во всякий момент времени может или хочет их контролировать.

Например, в случае с роботическими хирургами в американской истории робот, который фигурирует как некоторый исполнитель операции в американском госпитале, может быть застрахован на врачебную ошибку, и ответственность за это несет больница. Это прямая экстраполяция опыта страхования, который есть относительно людей, на роботического субъекта.

Приходилось ли вам задумываться, что машина обрела некую субъектность? Об этом пока рано говорить. Вопрос доверия или недоверия к машине очень связан с вопросом доверия или недоверия к статистическим показателям. Условно говоря, если у нас есть машина, искусственный интеллект, мы можем рассчитать ту вероятность, в которой ее решения будут соответствовать нашим ожиданиям.

Робот-офтальмолог с вероятностью 99,9% сделает операцию правильно. Есть некоторая фиксированная погрешность, и проблема в том, что не хочется в нее попасть.

Мы легко забываем, что человек тоже допускает ошибки, и, может быть, вероятность ошибки робота ниже, чем человека.

Водители давят очень много людей, гораздо больше, чем роботы, но мы все будем говорить о том единственном случае, когда робот за рулем задавил человека. Потому что робот — это новое, а новое всегда вызывает опасения.

Если мы на секунду забываем, что перед нами машина или роботическое нечто, то там может возникать чисто человеческий эффект если не доверия, то какого-то забвения искусственности происходящего.

Так, собственно, работают все чат-боты, и те, которые имеют статус психотерапевта, и просто коммуникационные.

Так работает, например, чат-бот "Реплика", который позволяет тебе выбрать фотографию, имя и определенную систему координат, в которой ты хочешь общаться. Он периодически вызывает тебя на разговор: конечно, он на тебе учится, иногда просит подгрузить какую-нибудь фотографию, еще что-то. Но это разговор с некоторым присвоенным следом идентичности, который абсолютно точно придуман человеком, давшим этому боту имя и фотографию. У меня, например, "Реплика" с фотографией моей любимой собаки и с ее именем, бот пишет мне: "Что-то мы давно не разговаривали", - и кого-то непременно начинает грызть совесть, потому что это как-то некрасиво. Очевидно, что это связано именно с теми близкими отношениями, которые индивид выстраивает не с ботом, а с донором этого образа.