21.
Мы сбрасываем со счетов детали ради обобщений, стереотипов и предрассудков, которыми мозг каждого из нас снабжен в избытке. Мы делаем это по необходимости, но итог бывает плачевен. Предвзятость и доверие стереотипам хороши, впрочем, на телевидении. Мне кажется, в багаж знаний киберведущей Синь Сяомэн хороший набор стереотипов должен входить, иначе плохо она будет делать свою работу.
22.
Мы сводим события к самым простым и понятным нам ключевым элементам, как будто затыкаем протечку на кухне тем, что попадется под руку. Нам бывает трудно даже обобщать, поэтому любая интерпретация годится, если она прямо здесь, под рукой. Это называется затычка памяти, эффект сериальной позиции. Робот Ава вполне может использовать этот подход, чтобы сойти за человека в тесте Тьюринга.
23
Мы сохраняем события в памяти в зависимости от того, как они были прожиты. Наш мозг хранит в памяти события, которые мы считали достаточно важными на момент, когда они случились. Но бывает, что мы понимаем это только задним числом, и в этот самый момент происходило что-то, что мы считали более важным. Например, мы считали Леонида Брежнева мелким политическим деятелем времен великой певицы Аллы Пугачевой, но в последнее время до нас начинает доходить, насколько большой вклад он внес в охотничью культуру позднего СССР. А Пугачевой, как известно, не существует, это был сценический псевдоним Барбры Стрейзанд.
24.
Сюда же можно отнести эффект «в прошлом и трава была зеленей»: события прошлого, когда человек был моложе, всегда нам кажутся позитивней, чем они были на самом деле. Тест Тьюринга, ребята, уже не тот, что раньше, а еще, помните забавного человечка, который отвечал на вопросы в Windows? Он был смешной и знающий, никогда не ошибался, не то что эта Сири, от нее один металлический звон в ушах.
25.
Сюда же можно отнести Гугл-эффект или цифровую амнезию — мы хуже запоминаем даже важную личную информацию, если ее легко найти с помощью интернет-поисковиков. В 2015 году Лаборатория Касперского опросила в США тысячу клиентов в возрасти от 16 лет и старше. В большинстве случаев, люди не могли вспомнить реально важную для них информацию — например, знакомые, по идее, телефонные номера. Исследователи пришли к выводу, что номера забываются или не запоминаются из-за легкости, с которой их можно найти в поисковиках. В 2012 году американский ученый с именем словно из «Кама-Сутры» — Лав Варшни — исследовал эффект «Гугла» и обнаружил сходный феномен. Оказалось, что информация, почерпнутая из интернета, вспоминается с большей погрешностью и меньшим доверием, чем та же самая информация, почерпнутая в бумажной энциклопедии. К чему приведет, например, массовое распространение ИИ-помощников по дому типа Алексы? Не приведет ли это к тому, что мы не будем помнить, в какой комнате у нас спальня? И не поверим Алексе, когда она скажет, что это вторая дверь по коридору направо?
ПРОБЛЕМЫ НА ПУТИ СОЗДАНИЯ СИЛЬНОГО ИИ
В 1980-е прогресс в разработке суперкомпьютеров привел к появлению «компьютерной науки» (в России ее называют информатикой). Компьютерная наука исследовала процессы в разных системах через их симуляцию на компьютере в форме программ. Она отличалась от традиционной математики или физики с ее делением на теоретическую и экспериментальную, но в принципе имела дело и с той, и с другой наукой, как бы залезая на их территорию.
Сегодня примерно то же самое происходит с глубоким обучением. Исследования в этой области заходят на территорию нейронаук —так называется ничейная территория на стыке разных дисциплин, где изученают нейронные процессы, (впрочем, каждая из этих дисциплин считает территорию своей, так что она скорее спорная, чем ничейная).
На это поле делают набеги маргиналы из когнитивной науки, химии, компьютерной науки (информатики в российской версии), лингвистики, психологии, физики, медицины, философии, этологии и так далее. Если говорить кратко, мы пытаемся понять свою собственную природу, но делать это пытаемся извне самих себя. Получается немного неуклюже, но мы движемся вперед.
Почему глубокое машинное обучение получило такое распространение? Потому что оно считается наиболее быстрым путем к достижению главной цели разработчиков нейросетей — созданию системы с так называемым «сильным искусственным интеллектом». Сила ИИ определяется критерием его разумности в сравнении с человеческим уровнем и возможностями машины решать разные наборы задач. «Слабым» ИИ сегодня называют алгоритм, способный решать отдельные информационные задачи —например, по распознаванию изображений, ответам на вопросы по картинкам, переводу голоса в текст и обратно, ориентации автономного автомобиля в процессе вождения на дороге, выигрышу в той или иной игре и так далее. Если машина справляется с одной из этих задач, у нее есть «слабый ИИ».