Ученые создают моральные ценности для роботов

Ученые создают моральные ценности для роботов

На протяжении нескольких лет американские ученые при поддержке Военно-морских сил США пытаются создать роботов, обладающих системой моральных ценностей и способных решать сложные этические проблемы. Если им удастся реализовать свой замысел, то будет возможно создание искусственного сознания, похожего в некоторой степени на сознание человека.

Еще в 1942 году Айзек Азимов, известный писатель, творивший в жанре научной фантастики, в одном из своих произведений сформулировал кодекс морального поведения для роботов, который мог бы быть актуален и в настоящее время, если бы железные помощники человека умели думать. Пока что до этого далеко. К сожалению, а возможно, и к счастью, ныне существующие устройства не способны осознавать себя в окружающем мире.

Группа исследователей из университета Тафтса под руководством Маттиаса Шутца работает над решением очень важной задачи: расчленение человеческого представления на основные компоненты и интегрирование их на понятном роботу языке в специальном программном обеспечении, которое будет представлять некий алгоритм, внедренный в искусственный интеллект. В результате, робот сможет пересмотреть данные ему должностные инструкции в сложных ситуациях и обосновать собственное поведение по отношению к тем или иным людям.

Как говорил Шутц, мораль упрощенно можно воспринимать как возможность обсуждения социальных соглашений и законов вместе со способностями к учению и осознанию причины и следствия. Но вопрос до сих пор состоит в следующем: способны машины обладать этими способностями?

Возьмем такой пример. Робот-медик несет лекарства в определенную зону, но на его пути встречается умирающий человек. Система моральных ценностей поможет ему оценить ситуацию и поступить правильно.

Ученые прекрасно понимают, что все варианты возможных событий предусмотреть нельзя; рано или поздно случится что-нибудь непредвиденное, поэтому они предложили два этапа решения сложной проблемы роботом.

Для начала будет проводиться первостепенная этическая проверка на специальной программе (система вопросно-ответных ИИ, Watson от компании IBM, например), от нее и будет зависеть принятие решения. Если для решения проблемы потребуется больше информации, то будет использоваться система эмуляции моральных ценностей (пока еще находящаяся в процессе разработки).

Так как работа над проектом идет благодаря финансированию ВМС США, то, скорее всего, данная технологи будет использована для производства роботов-медиков.

Оставить комментарий

Пожалуйста, введите Имя

обязательно

Пожалуйста, введите существующий email

обязательно

Пожалуста, напишите сообщение

Подтвердите, что Вы не бот — выберите самый большой кружок:

Медицина в Смоленске © 2024 Все права защищены.

Все материалы на данном сайте взяты из открытых источников или присланы посетителями сайта и предоставляются исключительно в ознакомительных целях. Права на материалы принадлежат их владельцам.
Администрация сайта ответственности за содержание материала не несет. (Правообладателям)

Информация на сайте носит рекомендательный характер. Пожалуйста, посоветуйтесь с лечащим врачом.
Редакция smolmed.ru не осуществляет медицинских консультаций или постановки диагноза.