Мои роботы | страница 2
И потому в самой первой увидевшей свет версии рассказа «Робби» один из героев говорит: «Он просто не может не быть верным, любящим, добрым. Он просто устроен так».
Написав рассказ «Робби», который Джон Кэмпбелл из «Эстаундинг сайенс фикшн» отказался напечатать, я сочинил несколько других рассказов, которые Кэмпбелл принял. И 21 декабря 1940 года я пришел к нему с идеей о роботе, умеющем читать мысли (так появился «Лжец»), но Джона не устроили никакие мои объяснения по поводу того, почему робот вел себя именно так, а не иначе. Он хотел получить четко сформулированные законы, которые защищали бы людей от роботов, чтобы мы смогли лучше понимать их поведение. И тогда мы с ним вместе разработали концепцию, которая позднее стала называться «Три закона роботехники». Идея принадлежала мне и была взята из уже написанных рассказов, но конкретные формулировки (если я все правильно помню) мы разработали вместе.
Три закона были логичны и звучали вполне разумно. Прежде всего, когда я начал писать рассказы о своих роботах, я подумал, что следует позаботиться о безопасности человека. Более того, я прекрасно понимал, что, даже не стараясь сознательно причинить человеку вред, своей бездеятельностью робот может навлечь на него беду. Я никак не мог забыть циничного произведения Артура Хью Клоу «Последний декалог», в котором десять заповедей переписаны в сатирическом стиле Макиавелли. Чаще всего цитируется такая: «Не убий, но и не слишком старайся сохранить другому жизнь».
Именно по этой причине я настаивал на том, что Первый закон (безопасность) должен состоять из двух позиций:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Позаботившись о безопасности, мы решили перейти ко Второму закону (служба). Естественно, следуя необходимости выполнять приказы людей, робот не должен забывать об их безопасности. Значит, Второй закон гласит:
2. Робот должен повиноваться всем приказам, которые отдает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.
И наконец, нам требовался третий закон (осторожность). Робот – дорогая машина, значит, необходимо ее беречь. Но не в ущерб безопасности и службе человеку. Итак, Третий закон выглядит следующим образом:
3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму законам.
Разумеется, эти законы сформулированы в словах, что является в определенной степени несовершенством. В позитронном мозгу они выражены в сложных математических формулах (в которых я ничего не понимаю). Однако даже при этом они достаточно двусмысленны. Что считать вредом для человека? Должен ли робот подчиняться приказам, которые отдает ему ребенок, или сумасшедший, или человек с дурными намерениями? Должен ли он отдать свое дорогостоящее и полезное существование, чтобы предотвратить незначительный вред, который может быть причинен маловажному человеку? Что есть «незначительный» и что есть «маловажный»?