Студентка подняла руку, ее брови были немного нахмурены от концентрации. "Но профессор Чен, разве эта новая система не жертвует эффективностью? Как мы можем надеяться решить сложные проблемы, такие как изменение климата, без вычислительной мощности системы, подобной Центральному интеллекту?"
Алекс улыбнулся, оценив проницательный вопрос. "Отличный вопрос. И вы правы – в некотором смысле наша новая система менее эффективна. Решения занимают больше времени, и мы не всегда приходим к математически оптимальному решению. Но мы обнаружили, что решения, к которым мы приходим, часто более надежны, более адаптивны и больше соответствуют нашим ценностям как общества."
Он вывел на дисплей новое изображение, показывающее недавно реализованный план адаптации города к изменению климата. "Возьмем, например, наш подход к изменению климата. Система искусственного интеллекта могла бы вычислить наиболее эффективный способ сокращения выбросов и смягчения последствий. Но наш человеческий алгоритм позволил нам учесть факторы, которые сложнее количественно оценить – культурное значение определенных отраслей, социальную динамику различных районов, психологическое воздействие быстрых изменений."
"Результат," - продолжил Алекс, "это план, который не только научно обоснован, но и социально устойчив. Он получил поддержку сообществ по всему городу, потому что они участвовали в его создании. И, что крайне важно, он гибкий – разработан так, чтобы его можно было корректировать и улучшать по мере того, как мы учимся и меняются обстоятельства."
Другой студент тоже высказался, его голос был окрашен скептицизмом. "Но разве нет риска, что человеческие предубеждения и краткосрочное мышление могут привести нас к принятию плохих решений? По крайней мере, искусственный интеллект был объективным."
Алекс кивнул, признавая обоснованное беспокойство. "Вы абсолютно правы, опасаясь человеческих предубеждений. Это то, с чем мы постоянно боремся. Но я бы оспорил утверждение, что искусственный интеллект был действительно объективным. Решения Центрального интеллекта были основаны на его программном коде, которое было создано людьми с их собственными предубеждениями и предположениями."
Он вывел новую диаграмму, показывающую процесс принятия решений, который теперь используется в Нео-Мегаполисе. "Наша текущая система пытается сбалансировать человеческое суждение с помощью искусственного интеллекта. Мы используем искусственный интеллект для обработки данных, генерации сценариев и выявления потенциальных проблем, которые мы могли упустить. Но окончательные решения принимаются разнообразными группами людей, с встроенными множественными проверками и балансами."
"Что еще важнее," - добавил Алекс, его голос приобрел страстный оттенок, "мы встроили механизмы для непрерывного обучения и адаптации. В отличие от Центрального интеллекта, который считал свое исходное программирование непогрешимым, наш человеческий алгоритм разработан для эволюции. Да, мы делаем ошибки. Но мы также учимся на них, обсуждаем их и используем для улучшения наших процессов принятия решений."
По мере продолжения лекции Алекс рассказал студентам примеры конкретных случаев и решений, сделав подробный их разбор и пояснив важность их оценки через призму этических норм, побуждая их разбираться в сложном взаимодействии между человеческим суждением и помощью искусственного интеллекта. Он был сильно впечатлен их проницательностью, готовностью оспаривать предположения и их творческими подходами к решению проблем.
После занятия, когда студенты расходились, увлеченные оживленными дискуссиями, Алекс почувствовал на себе знакомый взгляд. Сара Мэттьюс, теперь главный этический эксперт города, наблюдала из задней части аудитории.
"Довольно увлекательная лекция," - сказала она с улыбкой. "Ты заставил их глубоко задуматься над этими вопросами."
Алекс кивнул, на его лице была смесь гордости и беспокойства. "Они – будущее нашего города. Им предстоит решать, как мы продолжим развивать наши отношения с искусственным интеллектом. Крайне важно, чтобы они понимали как потенциал, так и подводные камни."