Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Искусственный интеллект научился распознавать эмоции. К чему это может привести?

Искусственный интеллект научился распознавать эмоции. К чему это может привести?


20-01-2020, 10:07 | Наука и техника / Новости науки и техники | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (0) | просмотров: (805)

Развитие искусственного интеллекта в XXI веке идет семимильными шагами: одним из главных его достижений стала возможность распознавания эмоций человека. В своем ежегодном докладе, посвященному развитию ИИ, междисциплинарный исследовательский центр, изучающий социальные последствия искусственного интеллекта AI Now, призвал запретить использование данной технологии в определенных случаях. Как утверждают специалисты, навык ИИ в области распознавания эмоций не должен применяться в решениях, которые оказывают влияние на жизнь людей и общество в целом. Почему же умение роботов отличать эмоции может существенным образом изменить привычную жизнь человечества?

Умение роботов распознавать человеческие эмоции может негативно сказаться на современном обществе

Может ли у робота возникнуть чувство эмпатии?

Алгоритмы компьютерного зрения, которые способны определять те или иные эмоции, существуют на планете уже по меньшей мере пару десятков лет. Данная технология опирается на информацию, полученную в результате машинного обучения — особых алгоритмов, которые обрабатывают данные для наилучшего принятия того или иного решения. Несмотря на все успехи современного роботостроения, способность к воспроизведению этого по-настоящему человеческого навыка все еще является довольно сложной задачей. Специалисты Microsoft отмечают, что распознавание эмоций людей с помощью компьютеров имеет потенциал для создания ряда приложений нового поколения, однако из-за трудностей при их определении, ИИ долгое время показывал ошибочные результаты. Однако новые исследования показывают, что современная техника уже помогает кадровым агентствам оценивать потенциальную производительность труда будущего сотрудника еще на этапе собеседования. Так, анализ видеозаписей проведенных интервью при помощи новейших технологий ведется уже сейчас, позволяя менеджерам получить лучшее представление об эмоциональном состоянии своих подчиненных.

 

Развитие у ИИ интеллекта может спровоцировать ряд этических и моральных проблем

Легкость постоянного мониторинга с помощью ИИ порождает множество проблем, выходящих за рамки этики. В настоящее время существует большое количество вопросов, связанных с конфиденциальностью личной информации, которые могут вызвать негативное отношение общества. С учетом этих этических соображений, применение искусственного интеллекта в повседневной жизни хотя и может помочь при приеме на работу или при процедурах вынесения уголовных приговоров, одновременно может оказаться и ненадежным. Так, если системы изучат предвзятость, польза от ИИ во время проведения собеседований или вынесения приговоров осужденным может быть сведена к минимуму.

 

В конечном счете, разработчики технологий и общество в целом должны внимательно следить за тем, как информация из систем искусственного интеллекта вводится в процессы принятия решений. Как и любая другая форма интеллекта, искусственные системы могут давать неверные результаты, способные негативным образом отразиться на жизни отдельного индивида или всего общества. Кроме того, современный ИИ отличается значительными техническими трудностями в чтении некоторых эмоций, например, уровня уверенности в себе. В случае, если люди, склонные доверять искусственному интеллекту, будут принимать решения, основываясь на ошибочном мнении ИИ, у общества могут возникнуть очень большие проблемы, которые можно будет предотвратить лишь при проектировании в этих системах таких качеств, как справедливость, прозрачность и этика. Иными словами, прежде чем умные системы обучатся правильному распознаванию эмоций, ученым придется сперва немало потрудиться над созданием норм морали для искусственного интеллекта.



Источник: /hi-news.ru.

Рейтинг публикации:

Нравится1




Комментарий от редакции:

Надо понимать, никого искусственного интелекта пока никто не создал. Нет самооознования системы, можно говорить лишь о хорошей имитации , но не более того


Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map