Технологии против человека | страница 97



Можете ли вы представить себе компьютер, приложение, робота или программный продукт, испытывающий сострадание? Машину, которая чувствует то, что вы чувствуете, которая резонирует с вашими эмоциями и которая страдает, когда вы страдаете? Конечно, мы можем предвидеть появление машин, которые смогут понимать эмоции или даже распознавать сострадание в человеческих лицах и языке тела. Мы также можем представить себе машины, которые смогли бы подражать человеческим эмоциям, просто копируя или обучаясь у нас, и, следовательно, будет казаться, что они на самом деле испытывают эмоции.

Однако главное отличие состоит в том, что у машин никогда не будет чувств. Они не могут испытывать сострадание, они могут в лучшем случае хорошо его имитировать. Это, безусловно, ключевое различие, о котором мы должны задуматься более подробно, когда рассматриваем технологическое цунами, стремящееся поглотить нас. Если бы мы и дальше путали хорошо выполненное моделирование с реальным существом, ошибочно принимая алгоритмический вариант чувства за фактическое сознание, мы бы попали в серьезную беду.

Эта путаница и есть главный недостаток трансгуманизма.

На мой взгляд, машины станут чрезвычайно хорошими, быстрыми и дешевыми при моделировании или дублировании человеческих черт, но на самом деле они никогда не будут людьми. Реальная задача для нас будет заключаться в том, чтобы противостоять искушению счесть эти симуляции «достаточно хорошими» и позволить им заменить уникальные человеческие взаимодействия. Было бы глупо и опасно отказываться от действительно человеческого опыта эвдемонизма в пользу вездесущих, доступных и быстрых гедонических удовольствий, предоставляемых машинами.

В книге «Последнее изобретение человечества. Искусственный интеллект и конец эры Homo sapiens» Джеймс Баррат пишет:

Мощная ИИ-система, цель которой – обеспечить вашу защиту, может попросту запереть вас дома и никуда не выпускать. Если вы попросите счастья, она может подсоединить вас к системе искусственного жизнеобеспечения и все время стимулировать центры удовольствия в вашем мозгу. Если вы не обеспечите ИИ очень большой библиотекой приемлемых вариантов поведения или надежнейшим средством выбора предпочтительного для вас варианта, вам придется терпеть тот вариант, который он выберет сам. А поскольку ИИ – чрезвычайно сложная система, вы, возможно, никогда не сумеете понять ее достаточно хорошо, чтобы быть уверенным в правильности своих представлений о ней.