Технологии против человека | страница 112
Тем не менее, даже если мы должны были сделать роботов умными в плане обучения и принятия решений, основанных на собственном опыте, сегодня они все еще близки к нулю в плане эмоционального и социального интеллекта – два термина, которые сами по себе очень трудно объяснить или даже измерить.
Проблема обучаемых машин – одна из самых важных для меня, когда дело касается этики. Глубинное обучение – это область ИИ, которая получала наибольшие инвестиции с 2015>191 года, и, скорее всего, эта тенденция сохранится в ближайшие несколько лет. Мы вряд ли застанем еще одну «зиму» ИИ, когда инвесторы вновь заморозят финансирование проектов ИИ из-за того, что они получили меньше, чем ожидали.
Только представьте себе, что будет, если (когда?) бесконечно мощные машины и суперкомпьютеры смогут научиться решать практически любую проблему, основываясь только на огромном потоке реальных данных, т. е. без каких-либо предварительных команд или программирования. Победа AlphaGo от Google DeepMind, обсуждавшаяся ранее, является наглядным примером таких возможностей обучения в действии>192.
Благодаря глубинному обучению мощные машины смогут обнаружить основополагающие рекомендации, принципы и правила, и поэтому смогут понять их и, возможно, даже подражать им. Однако, если это суждено стать следующим важным событием в компьютерной сфере (как американская компания IBM любит говорить, «когнитивных вычислениях»), мы, простые люди, не сможем оценить, правильные ли рекомендации дает нам ИИ или нет, потому что вычислительные возможности машин значительно превысят наши собственные. Действительно злободневная проблема: если мы изобретаем машины, которые на несколько порядков превосходят наши собственные возможности, с IQ 50 000 и выше, как мы поймем, что им можно доверять? И кто может их контролировать? Станут ли они в конце концов разумными в новом понимании? Должны ли мы встраивать в них ряд желательных этических норм, и как это возможно?
В журнале AI Magazine в статье «Вопрос ответственности» (1987) Митчелл Уолдроп писал:
Ясно одно… умные машины воплотят в себе ценности, предположения и цели, независимо от того, сознательно ли их так запрограммируют или нет. Таким образом, по мере того как компьютеры и роботы становятся все более и более умными, становится необходимым внимательно и четко думать о том, что это за встроенные ценности>193.
Эта проблема еще более актуальна сейчас, когда мы входим в экспоненциальную эпоху, потому что теперь нам надо проанализировать, какими должны быть этические рамки для всех экспоненциальных технологий, включая ИИ, геоинженерию, когнитивные вычисления и, конечно, редактирование генома человека. Это включает в себя как рамки, которые люди-изобретатели или сборщики (не)преднамеренно программируют в машинах, так и те, которым машины сами могут обучиться и развить с течением времени.