Цифровой журнал «Компьютерра» 2012 № 01 (101) | страница 22
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Сопоставляя эти принципы, сформулированные почти семьдесят лет назад, с тем, что происходит в действительности, приходится констатировать, что создателям настоящих роботов неинтересны «утопические и наивные» азимовские идеи. В докладе, который подготовил для ЦРУ Патрик Лин, считающийся одним из ведущих теоретиков в области этичного применения новых технологий, три закона роботехники не упомянуты ни разу.
Зато Лин описал множество примечательных (и вызывающих понятное беспокойство) сценариев и задач, которые подходят для того, чтобы переложить их на плечи роботов.
В отличие от людей, машины прекрасно работают в условиях, которые известны как «три D». Именно это делает их настолько привлекательными для военных и шпионов.
Первое D — из английского слова Dull, то есть «скучная работа». Такая, к примеру, как продолжительное наблюдение, рекогносцировка на местности, патрулирование территории или охрана периметра в течение длительного времени.
Второе D – от Dirty, «грязная работа». Роботам, как правило, не страшны ядовитые и опасные для человека материалы. Они способны работать в средах, которые не подходят для людей, вроде подводного мира или открытого космоса. Их можно использовать для борьбы с последствиями ядерных или биохимических аварий и атак.
Третье D – от Dangerous, то есть «опасная работа». Типичный пример такого рода задач — обследование туннелей в системах пещер, где прячется противник, контроль над поведением враждебно настроенной толпы или обезвреживание взрывных устройств.
Кроме того, отмечает Лин, ныне в этот комплекс всё чаще добавляют ещё одно «четвёртое D» — Dispassion, то есть способность роботов сохранять бесстрастность. Это, правда, спорный момент (оспаривается не отсутствие у робота эмоций, конечно, а стремление рассматривать этот аспект как важный плюс в работе).
Для себя Лин уже решил, на чьей стороне в этом споре правда. Очевидно, что роботы никогда не будут действовать со зла или из ненависти. Им чужды эмоции, приводящие к совершению военных преступлений вроде резни мирного населения или массовых изнасилований. Суждения машины не искажают адреналин и голод. Они не страдают от недосыпа, низкого морального духа и сомнений, которые влияют на то, как люди оценивают ситуацию. Это, по мнению Лина, означает, что роботы способны воевать не только лучше людей, но и этичнее.