Знание-сила, 2009 № 07 (985) | страница 9
Роботы становятся все разумнее; они могут уже сами многому учиться, подобно людям или животным. Недавно немецкий философ Андреас Маттиас призвал даже разработать своего рода уголовное законодательство для этих машин: они должны отвечать за причиненный ими вред. Вот что он сказал в интервью электронной версии журнала Spiegel (фрагменты беседы).
Андреас Маттиас: Вообще говоря, нет. Я сам несколько лет занимался программированием в Кассельском университете. Сделать подобное заявление меня побудил не страх перед роботами, а тот факт, что машины играют все большую роль в нашем обществе, поскольку начинают самостоятельно принимать решения. И если они допускают ошибки, то нужно заранее обговорить, кто будет отвечать за их промахи.
— Но машину ведь сделал человек? Почему бы не наказать программиста, разработавшего ее?
А.М. Нет, это в семидесятые годы мы могли думать, что раз в машину вложили определенную программу, она будет действовать строго в ее рамках. За эти десятилетия программирование изменилось. Сегодня вместо четких, конкретных команд часто используются так называемые нейрональные сети, созданные по примеру структур, существующих в головном мозге человека. Подобная сеть способна к самообучению, и мы уже не можем судить о том, чему научилась машина.
Она сама обучается, тренируется — она выходит за рамки вложенных в нее программ. От человека же она получает только определенный багаж знаний.
— Вы рассуждаете так, словно задались целью избавить производителей роботов от необходимости выплачивать огромные суммы в счет компенсации за причиненный ущерб.
А.М. Я исхожу из того, что наша правовая система должна быть справедливой. Для меня справедливость — это когда кто-то несет ответственность за поступок, совершить или не совершить который было всецело в его власти. Производители роботов уже не могут досконально контролировать выпущенные ими машины. Так что взваливать на них ответственность за все совершенные роботами поступки было бы несправедливо. Возьмите, например, марсоход, который благодаря вложенному в него программному обеспечению сам учится маневрировать. Если, например, в тот момент, когда связь с Землей нарушена, он затеет какой-то маневр и въедет прямиком в яму, то стоит ли винить тех, кто разрабатывал программное обеспечение?
— Почему нет? Может быть, они просто написали плохую программу?
А.М. Я не думаю, что можно создать машину, которая не допускала бы вообще никаких ошибок. Мы, люди, тоже их делаем, и сами же отвечаем за это. Мы не можем требовать, чтобы спрашивали с наших учителей, с родителей, а не с нас, — с определенного возраста мы несем ответственность за все, что натворили. Вот так же обстоит дело и с машиной.