Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Пора наделить искусственный интеллект такой же защитой, как и животных

Пора наделить искусственный интеллект такой же защитой, как и животных


29-04-2019, 15:29 | Экстремальные условия / Человек. Здоровье. Выживание | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (0) | просмотров: (887)

Университеты по всему миру проводят серьезные исследования искусственного интеллекта. Технологические гиганты его активно развивают. Вероятнее всего, очень скоро у нас будет искусственный интеллект, по своим мыслительным способностям стоящий на уровне мышей или собак. И значит, пришло время подумать о том, что такому искусственному интеллекту понадобится этическая защита, которую мы обычно дает животным.

Больно ли искусственному интеллекту?

До сих пор в дискуссиях на тему «прав ИИ» или «прав роботов» преобладали вопросы о том, какие этические обязательства мы возложили бы на ИИ с человеческим или превосходным интеллектом — вроде андроида Дейты из «Звездного пути» или Долорес из «Мира Дикого Запада». Но думать об этом — значит начинать не с того места. Прежде чем мы создадим ИИ с человеческими качествами, заслуживающего человеческой этики, мы создадим менее сложный ИИ, заслуживающий этических прав, в лучшем случае, животных.

Мы уже начали осторожничать в исследованиях, в которых вовлечены определенные животные. Особые комитеты оценивают исследовательские предложения, чтобы гарантировать, что позвоночные животные не будут убиты без необходимости и не подвергнутся чрезмерным страданиям. Если задействуются стволовые клетки человека или клетки человеческого мозга, стандарты надзора еще более строгие. Биомедицинские исследования тщательно рассматриваются, но исследования ИИ, которые могут повлечь за собой некоторые из тех же этических рисков, в настоящее время вообще не изучаются. Возможно, стоило бы.

Вы могли бы подумать, что ИИ не заслуживает такой этической защиты, поскольку не обладает сознанием — то есть, поскольку у нет подлинного потока опыта, с настоящей радостью и страданиями. Мы с этим согласны. Но вот вам сложный философский вопрос: как мы узнаем, что создали нечто, способное на радость и страдания? Если ИИ похож на Дейту или Долорес, он может пожаловаться и защитить себя, инициируя обсуждение своих прав. Но если ИИ не может выразить это, как мышь или собака, либо по какой-то другой причине не сообщает нам о своей внутренней жизни, возможно, он не сможет сообщить о страданиях. Но ведь собаки вполне могут радоваться и страдать.

Вот здесь возникает загадка и трудности, потому что научное исследование сознания не достигло консенсуса о том, что же такое сознание, и как нам сказать, присутствует оно или нет. По некоторым представлениям — так сказать, либеральным — для наличия сознания достаточно лишь присутствие процесса хорошо организованной обработки информации. Мы, возможно, уже стоим на пороге такой системы. По другим представлениям — консервативным — сознание может требовать весьма специфических биологических функций, вроде мозга млекопитающего во всем его великолепии: и тогда мы и близко не подошли к созданию искусственного сознания.

Непонятно, какой из подходов верный. Но если верен «либеральный» взгляд, очень скоро мы создадим множество недочеловеческих искусственных интеллектов, которые заслуживают этической защиты. Возникает нравственный риск.

Обсуждение «риска ИИ» обычно фокусируется на рисках, которые новые технологии ИИ могут представлять для нас, людей, вроде захвата мира и уничтожения человечества или разрушения нашей банковской системы. Куда реже обсуждаются этические риски, которым мы подвергаем ИИ вследствие неправильного обращения с ним.

Все это может показаться надуманным, но поскольку ученые из сообщества разработчиков ИИ стремятся разработать сознательный ИИ или надежные системы ИИ, которые вполне могут в конечном итоге стать сознательными, мы должны отнестись к этому вопросу серьезно. Подобные исследования требуют этической проверки вроде той, что мы проводим в исследованиях на животных и образцах нервной ткани человека.

В случае исследований на животных и даже на людях соответствующие меры защиты были приняты только после того, как выявлялись серьезные этические нарушения (например, в случае ненужных вивисекций, военных медицинских преступлений нацистов и прочих). С ИИ у нас есть шанс добиться большего. Возможно, нам придется создавать комитеты надзора, которые оценят передовые исследования в области ИИ с учетом этих вопросов. В такие комитеты должны входить не только ученые, но и дизайнеры ИИ, когнитивисты, специалисты по этике и заинтересованные люди. Таким комитетам будет поручено идентифицировать и оценивать этические риски новых форм дизайна ИИ.

Вполне вероятно, что такие комитеты посчитают все текущие исследования в области ИИ вполне допустимыми. В большинстве случаев никто не считает, что мы создаем ИИ с сознательным опытом, заслуживающим этического рассмотрения. Но вскоре мы, возможно, пересечем эту черту. Нужно быть готовыми.



Источник: /hi-news.ru.

Рейтинг публикации:

Нравится0



Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map