Развитие искусственного интеллекта в XXI веке идет семимильными шагами: одним из главных его достижений стала возможность распознавания эмоций человека. В своем ежегодном докладе, посвященному развитию ИИ, междисциплинарный исследовательский центр, изучающий социальные последствия искусственного интеллекта AI Now, призвал запретить использование данной технологии в определенных случаях. Как утверждают специалисты, навык ИИ в области распознавания эмоций не должен применяться в решениях, которые оказывают влияние на жизнь людей и общество в целом. Почему же умение роботов отличать эмоции может существенным образом изменить привычную жизнь человечества?
Умение роботов распознавать человеческие эмоции может негативно сказаться на современном обществе
Может ли у робота возникнуть чувство эмпатии?
Алгоритмы компьютерного зрения, которые способны определять те или иные эмоции, существуют на планете уже по меньшей мере пару десятков лет. Данная технология опирается на информацию, полученную в результате машинного обучения — особых алгоритмов, которые обрабатывают данные для наилучшего принятия того или иного решения. Несмотря на все успехи современного роботостроения, способность к воспроизведению этого по-настоящему человеческого навыка все еще является довольно сложной задачей. Специалисты Microsoft отмечают, что распознавание эмоций людей с помощью компьютеров имеет потенциал для создания ряда приложений нового поколения, однако из-за трудностей при их определении, ИИ долгое время показывал ошибочные результаты. Однако новые исследования показывают, что современная техника уже помогает кадровым агентствам оценивать потенциальную производительность труда будущего сотрудника еще на этапе собеседования. Так, анализ видеозаписей проведенных интервью при помощи новейших технологий ведется уже сейчас, позволяя менеджерам получить лучшее представление об эмоциональном состоянии своих подчиненных.
Развитие у ИИ интеллекта может спровоцировать ряд этических и моральных проблем
Легкость постоянного мониторинга с помощью ИИ порождает множество проблем, выходящих за рамки этики. В настоящее время существует большое количество вопросов, связанных с конфиденциальностью личной информации, которые могут вызвать негативное отношение общества. С учетом этих этических соображений, применение искусственного интеллекта в повседневной жизни хотя и может помочь при приеме на работу или при процедурах вынесения уголовных приговоров, одновременно может оказаться и ненадежным. Так, если системы изучат предвзятость, польза от ИИ во время проведения собеседований или вынесения приговоров осужденным может быть сведена к минимуму.
В конечном счете, разработчики технологий и общество в целом должны внимательно следить за тем, как информация из систем искусственного интеллекта вводится в процессы принятия решений. Как и любая другая форма интеллекта, искусственные системы могут давать неверные результаты, способные негативным образом отразиться на жизни отдельного индивида или всего общества. Кроме того, современный ИИ отличается значительными техническими трудностями в чтении некоторых эмоций, например, уровня уверенности в себе. В случае, если люди, склонные доверять искусственному интеллекту, будут принимать решения, основываясь на ошибочном мнении ИИ, у общества могут возникнуть очень большие проблемы, которые можно будет предотвратить лишь при проектировании в этих системах таких качеств, как справедливость, прозрачность и этика. Иными словами, прежде чем умные системы обучатся правильному распознаванию эмоций, ученым придется сперва немало потрудиться над созданием норм морали для искусственного интеллекта.
Надо понимать, никого искусственного интелекта пока никто не создал. Нет самооознования системы, можно говорить лишь о хорошей имитации , но не более того
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.
» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам. Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+