Психология зла. Почему человек выбирает темную сторону | страница 61



Итак, что насчет нашего ответа на технологии? Служба безопасности аэропортов не просто неэффективна, она вредна сама по себе. Дело не только в том, что каждый раз, когда мы проходим проверку в аэропорту, частичка нас умирает от безысходности, но и в том, что из-за этой проверки погибают люди, и порой не самым очевидным образом. Наглядные примеры: врачи, теряющие в аэропорту время, которое могли бы уделить пациентам, пущенные на безопасность деньги, которые могли бы быть потрачены, чтобы сделать мир лучше. Но, по мнению одного экономиста, есть и более ощутимые изменения.

В 2011 году Гэррик Блэлок подсчитал, что реакция «путешественников» на трагедию 11 сентября привела в конце 2001 года к 327 смертям в автоавариях в месяц. Он утверждал, что многие люди пересели из самолетов в автомобили, а поскольку вождение гораздо опаснее полетов, они попали в ДТП. Почему они сели за руль? Возможно, отчасти из-за страха терактов, а отчасти потому, что перелеты стали занимать гораздо больше времени, чем поездка на машине. Блэлок писал: «Ответ общества на террористические угрозы может иметь нежелательные последствия, сопоставимые по тяжести с самими терактами».

Служба безопасности буквально нас убивает.

Мы не можем утверждать, что люди выбрали автотрассу из-за неудобства новых мер безопасности, но этот пример показывает, что процедуры, введенные ради нашего блага, порой дают обратный результат. Мы должны остерегаться того, что, боясь новых опасностей, созданных новыми технологиями, мы можем причинить себе еще больше вреда.

Конечно, есть технологии, которые разрабатываются исключительно, чтобы причинять вред. Но даже в этом случае, живя в мире автоматического оружия, самонаводящихся бомб и боевых роботов, мы, пожалуй, не назовем все эти изобретения изначальным злом. Почему? Потому что все они не обладают субъектностью, не могут принимать самостоятельные решения, а значит, и не способны творить зло по своему выбору.

Тай-минатор

Но машины, обладающие искусственным интеллектом (ИИ), могут. И порой нам кажется, что тут-то и скрывается зло — в псевдодуше робота.

Возьмем чат-бота с ИИ по имени Тай, выпущенного 23 марта 2016 года. Тай создала в рамках эксперимента для изучения понимания беседы компания Microsoft: чат-бот должен был развлекать людей «небрежной и игривой беседой», общаясь как американка 18-24 лет. Люди могли контактировать с Тай онлайн в Twitter. Предполагалось, что она будет учиться в процессе взаимодействий и разовьется в функционального онлайн-робота для бесед. Она могла сама формулировать предложения и решать, как отвечать на сообщения. За один день своей активности Тай выдала огромное количество твитов — примерно 93 тысячи. Но все быстро пошло не так.