суббота, 2 февраля 2013 г.

для чего нам нужна этика

Во-вторых, человеческий страх перед автономными мыслящими машинами, как мне кажется, во многом связан с неуверенностью, что они будут вести себя должным образом. Научная фантастика полна таких страхов. Значит, создание этических ограничителей для роботов может заставить общество лучше воспринимать исследования в области искусственного интеллекта. Надо отдавать себе отчет, что общество не сможет удержать всех изобретателей от разработки разумных автономных машин, даже если захочет запретить это. В случае успеха подобных исследований очень важно иметь этические принципы, которые, по настоянию общества, должны быть встроены в эти машины. Если чего-то стоит бояться больше, чем разумных автономных роботов, так это автономных роботов, лишенных представлений о нравственности.

Во-первых, существуют моральные проблемы, непосредственно связанные с тем, что роботы уже делают сейчас и будут делать в будущем. Игнорировать этот аспект поведения машин было бы легкомыслием. В Южной Корее, например, есть правительственная программа, цель которой — снабдить бытовым роботом каждый дом. Автоматические машины без водителей уже ездят по трассам, а скоро заполонят улицы городов. Военные роботы способны поддерживать огнем наземные операции и несут противотанковые орудия, в небе летают беспилотные истребители (которые, к счастью, пока не принимают самостоятельных решений). Путь от семейных авто, управляемых без помощи водителя, и умной бытовой техники до автономных созданий, меняющих наше представление о границах интеллекта и способных нанести реальный вред людям, нельзя пройти, не обезопасив себя каким-то этическим компонентом, встроенным в роботов.

Есть два способа построить робота, руководствующегося этическими принципами. Первый — просто запрограммировать машину вести себя этично или хотя бы избегать дурных поступков. Такой робот совершает правильные действия, но не умеет явным образом объяснять их смысл. Он ограничен в своем поведении замыслом создателя, который в данном случае и является настоящим нравственным агентом, ответственным лицом. Но есть и второй способ. Он предполагает создание машины, имеющей собст венное представление о законах нравственности и способной дейст вовать автономно, оперируя этим знанием. Философ Джеймс Мур называл роботов первого и второго рода имплицитным и эксплицитным нравственными агентами. Именно последнего пытаются создать люди, занимающиеся машинной этикой. Почему эта область знаний важна? Тому есть по меньшей мере три причины.

Это лишь первые шаги на пути к машине, способной решать по-настоящему сложные жизненные задачи, но с чего-то надо начинать, если хочешь построить нравст венного робота. А в этом и состоит цель дисциплины под названием машинная этика.

Когда роботы вроде этого станут обыденностью, у них могут появиться и более сложные иерархии ценностей. В частности, они должны будут думать и о собственной способности выполнять свои прямые обязанности — например вовремя заряжать батареи. Кроме того, у робота, особенно если он присматривает за несколькими людьми сразу, может быть чувство справедливости: в таком случае он будет, например, переключать каналы в телевизоре, учитывая не только конфликтующие желания пациентов, но и то, какие желания были исполнены в прошлый раз.

Несколько лет назад мы с мужем, кибернетиком Майклом Андерсоном, запрограммировали робота для ухода за пациентами в больнице. Он должен был напоминать им о приеме лекарств, а если курс лечения не соблюдался, докладывать врачу. Тонкость была в том, что робот выполнял не только техническую функцию. Он еще и принимал самостоятельные решения, руковод ствуясь собственными представлениями о благополучии пациента. Ему приходилось учитывать пользу, которую получает пациент, принимая лекарства, и вред, который может принести нежелание вовремя их принимать (об этом роботу сообщал лечащий врач). Кроме того, робот должен был также уважать независимость и свободу пациента. Если, скажем, болезнь была не слишком опасная, а пациент забывал выпить таблетку, засмотревшись любимой телепередачей, лишнее напоминание со стороны робота могло принести ему больше неудовольствия (то есть вреда), чем пользы. Если же пропуск лекарства грозил серьезными последствиями, приходилось напоминать о приеме в любом случае, а на худой конец — жаловаться врачу. В зависимости от того, какова иерархия ценностей, встроенная в робота, он может принимать в сходных случаях разные решения.

Философ Сьюзен Андерсон рассказывает, зачем нужны нравственные роботы, чем они лучше людей и почему они не будут подчиняться трем законам роботехники.

«Чувство алгоритма» ЂЂЂ Журнал Esquire

Комментариев нет:

Отправить комментарий