Технологический прогресс за последние десятилетия привел к
появлению целого ряда «умных» машин, которые с течение времени только
повышают свои «интеллектуальные» способности. Одновременно с этим
происходит и расширение профессиональных навыков роботов – они учатся
управлять автомобилем, помогать в уходе за пожилыми и больными, и даже
осваивают целый ряд военных специальностей: разведчики, саперы,
пехотинцы и пр. В связи с этим крайне необходимо интегрировать все
более умелых роботов в человеческое общество, и для этого необходимо,
по мнению Вендела Уолока, специалиста по этике Йельского Университета,
и Колина Алена, историка и философа Университета Индианы, реализовать
шесть правил, которые снизят опасность, исходящую от умнеющих роботов.
Правило первое: не доверять роботам задач, которые связаны со
значительным риском для общества. Другими словами, действия роботов
должны быть предсказуемыми, а возможность катастроф сведена к минимуму.
Однако уже сейчас поведение вычислительных систем не всегда возможно
прогнозировать, а в будущем, по мере усложнения интеллектуальных
способностей роботов и компьютеров, их «самостоятельность» будет только
повышаться.
Правило второе: ни при каких условиях не доверять роботам
оружие, и/или не предоставлять им управление вооружением. К сожалению,
предотвратить появление боевых роботов невозможно – уже разработаны и
поставлены на вооружение полуавтономные роботизированные установки, в
небо подняты беспилотные летательные аппараты, а несколько единиц
боевых роботов были посланы в Ирак, пусть и для ознакомления с их
возможностями.
Правило третье: соблюдение трех законов робототехники Азимова.
Знаменитые законы Айзека Азимова должны обеспечить безопасное
сосуществование роботов в человеческом обществе, избежать несчастных
случаев и злоупотребления роботами своими возможностями. Однако
подводным камнем является тот факт, что Азимов специализировался на
научной фантастике и не имел опыта в роботостроении, а значит, его
законы лишены научной базы. Более того, сам автор в своих произведениях
описывает ситуации, когда сформулированные им правила перестают
работать в нужном направлении.
Правило четвертое: программирование роботов с учетом целого
ряда условий и принципов. Одним из таких принципов должен являться
принцип максимально полезных действий – то есть, выбирать из целого
ряда возможных поступков лишь те, которые принесут пользу как можно
большему количеству людей. С другой стороны, следуя этому принципу
робот может принести в жертву жизнь одного человека, чтобы спасти жизнь
пятерых. Сегодня же ни один врач не способен за счет убийства одного
человека спасти жизнь и здоровье других пациентов, реализация столь
высоких моральных качеств – одна из главных проблем, которая встанет
перед робототехниками в будущем.
Правило пятое: постоянное обучение роботов. Это позволит
«умным» машинам гибко изменять свое поведение с течением времени,
анализировать собственные действия, выбирая из них правильные и
ошибочные. Впрочем, достижение указанной цели невозможно без целого
ряда технологических прорывов, ведь уровень развития современной науки
не позволяет создавать действительно мыслящих и анализирующих роботов.
Правило шестое: наделение роботов основным набором эмоций.
Подобная «функциональность» крайне необходима для интеграции роботов в
человеческое общество – машины должны с легкостью распознавать эмоции
человека, на основании чего выбирать собственную стратегию поведения.
Ведь не секрет, что значительная часть информации, необходимой для
успешного общения человека с себе подобными, передается за счет
выражения лица, языка жестов – все это должны с легкостью воспринимать
и роботы. И хотя эта задача очень сложна в реализации, уже сейчас
наблюдаются подвижки в создании роботов, способных распознавать эмоции.
То есть, задача не является невыполнимой.
|