Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Ученые собираются привить этику и мораль системам искусственного интеллекта робототехнических систем

Ученые собираются привить этику и мораль системам искусственного интеллекта робототехнических систем


15-05-2014, 17:39 | Наука и техника / Новость дня | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (1) | просмотров: (1 686)
Робот

Группа исследователей из университета Тафтса (Tufts University), университета Брауна (Brown University) и Ренселлеровского политехнического института (Rensselaer Polytechnic Institute) уже несколько лет работают в направлении создания роботов, поведение которых не будет подчиняться строгому набору правил. Эти роботы смогут изменять свое поведение в соответствии с заложенными в них нормами морали и этики, которые будут максимально приближены к нормам поведения человека. Если работа ученых увенчается успехом, то в результате этого появится искусственный интеллект, способный оценить текущую ситуацию и принять сложные с этической точки зрения решения, которые будут иметь более высокий приоритет, нежели строгий набор инструкций, заложенный в программу поведения робота.

Семьдесят два года назад, писатель-фантаст Айзек Азимов ввел понятие трех законов робототехники, которые являются своего рода "моральным компасом", направляющим действия высокоразвитого искусственного интеллекта. К сожалению, уровень развития современных технологий искусственного интеллекта не позволяет робототехническим системам воспринимать полную информацию об окружающей их среде, и до появления первых роботов, способных осознавать и руководствоваться законами Азимова, пройдет еще очень много времени.

Тем не менее, исследователи из университета Тафтса, возглавляемые профессором Мэттиасом Шеуцем (Prof. Matthias Scheutz), занимаются проблемами робототехнической морали и этики уже достаточно давно. Исследователи пытаются разложить принципы человеческой морали на набор более простых основных правил, соблюдение которых позволит поведению робототехнических систем подражать поведению высокоморального человека. Разрабатываемая учеными структура правил формализуется в структуру алгоритмов, которые могут быть включены в систему искусственного интеллекта. И внедрение этих алгоритмов позволит автоматической системе оправдывать свои действия и обходить набор четких правил в тех случаях, если поведение системы может выйти за рамки общепринятых моральных норм.

Примером вышесказанному может послужить следующая ситуация. Представьте себе, что роботу-санитару поручено доставить раненого бойца к ближайшему медицинскому пункту для оказания ему там помощи. Но в момент транспортировки раненого на пути робота встречается еще один раненый человек, находящийся в критической ситуации. Вышеупомянутый "моральный компас" позволит роботу прервать выполнение текущего основного задания, оценить имеющуюся ситуацию и принять решение о немедленном оказании помощи найденному человеку или о продолжении выполнения первоначальной задачи по транспортировке первого человека.

Одной из главных мыслей, которые можно почерпнуть из романов Айзека Азимова, является то, что никакой, пусть даже очень обширный набор четких правил, не сможет обеспечить правильную работу робототехнической системы в каждом из возможных сценариев развития событий. В любой цепочке событий рано или поздно произойдет неожиданное отклонение, которое введет робототехническую систему в ступор и послужит причиной совершения роботом "необдуманных" действий. Профессор Шеуц и его коллеги полностью соглашаются с этим постулатом, и для преодоления ограничений ими была разработана двухступенчатая система принятия решений.

С точки зрения исследователей, все решения, принятые системой робота, должны проходить предварительную "моральную оценку", реализацию которой уже можно видеть в системе искусственного интеллекта суперкомпьютера Watson компании IBM. Если принятое решение удовлетворяет моральным нормам, то оно принимается к исполнению. В обратном случае вырабатывается еще одно решение, источником которого является система, разработанная группой профессора Шеуца, и которая учитывает все сложности человеческой этики.

Следует отметить, что работы исследователей в данном направлении проводятся по заказу и финансируются ВМС США. Поэтому первые роботы, которые получат наборы моральных правил и ограничений, будут являться боевыми роботами и роботами, оказывающими солдатам всевозможную помощь. И это, в свою очередь, сможет послужить гарантией того, что сценарии наподобие сценария фильма "Терминатор" станут попросту невозможными.

В США разработают «нравственных» роботов


Управление военно-морских исследований США выделит в течение пяти лет 7,5 млн долларов в виде гранта исследователям из нескольких университетов на разработку автономных роботизированных систем, способных к этическому суждению.

 

Как сообщает "Интерфакс" со ссылкой на Defense One, по словам Пола Белло, директора программы когнитивных наук Управления военно-морских исследований США, в настоящий момент легальны и используются в нескольких штатах беспилотные автомобили Google, однако неизвестны правовые и этические последствия такого использования, чем, в частности, и займутся исследователи.

В качестве примера ситуации, в которой роботу может понадобиться способность рассуждать о последствиях своих действий, Белло привел стихийные бедствия, когда робот должен будет выбирать между тем, чтобы эвакуировать человека или оказать ему первую помощь.

В настоящий момент военным США запрещены полностью автономные роботы-убийцы. При этом полуавтономные роботы также не могут находить какие-либо цели и вступать с ними в бой в случае, если эти цели не были выбраны уполномоченным оператором, согласно директиве министерства обороны США 2012 года.

Отметим, что во вторник в Женеве открылся саммит, на котором обсуждается правомерность применения роботов-убийц. Мнения специалистов об их использовании кардинально расходятся.

Сейчас армиями разных стран используется только один вид роботов-убийц – так называемые дроны, или беспилотники – беспилотные летательные аппараты, которые программируются человеком на выполнение каких-либо задач. Правозащитники неоднократно отмечали, что использование дронов приводило к жертвам среди мирного населения.

 

Источник

 



Рейтинг публикации:

Нравится0



Комментарии (1) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.

  1. » #1 написал: Jack (16 мая 2014 00:34)
    Статус: Пользователь offline |



    Группа: Посетители
    публикаций 26
    комментариев 978
    Рейтинг поста:
    0
    А что, ученые уже знают что такое этика и мораль? Поподробнее, пожалуйста.

       
     






» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map