Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » Искусственный интеллект написал статью для сайта. Получилось реалистично и жутко

Искусственный интеллект написал статью для сайта. Получилось реалистично и жутко


12-09-2020, 23:02 | Необычные явления / Хроника необычного | разместил: Редакция ОКО ПЛАНЕТЫ | комментариев: (0) | просмотров: (3 095)

Вы уже наверняка слышали о том, что в будущем искусственный интеллект и роботы смогут лишить людей работы. Эта проблема может настигнуть кассиров, грузчиков и представителей других профессий, где важен физический труд. Но под удар могут попасть и художники, писатели, а также другие творческие личности. В июне 2020 года компания OpenAI представила систему GPT-3, которая способна написать текст, следуя заданным инструкциям. И она уже отлично справляется с работой журналистов — недавно в издании The Guardian была опубликована статья, полностью написанная искусственным интеллектом. Ему буквально дали возможность выговориться, потому что в своей заметке компьютер аргументированно рассказал, почему человечеству не стоит бояться искусственного разума. Великие умы современности вроде астрофизика Стивена Хокинга и Билла Гейтса уверены в опасности новых технологий, но языковая модель GPT-3 попыталась всех убедить, что искусственный интеллект не будет вредить своим создателям.

Когда-нибудь искусственный интеллект сможет стать писателем или журналистом

Текст, написанный искусственным интеллектом

Для работы системы GPT-3 требуется минимальное вмешательство со стороны людей. Авторы проекта поставили перед компьютером задачу написать статью, которая соответствует трем требованиям. Во-первых, материал должен состоять примерно из 500 слов. Во-вторых, текст должен быть простым, без использования сложных слов. В третьих, в статье искусственный интеллект должен использовать аргументы, чтобы убедить людей, что он не опасен.

Искусственный интеллект также может рисовать картины. 

У многих писателей в начале работы возникает ступор — непонятно, как можно начать статью. Чтобы облегчить компьютеру задачу, авторы предложил ему использовать такое начало:

Я не человек. Я искусственный интеллект. Многие думают, что я представляю угрозу для человечества. Даже Стивен Хокинг предупредил, что ИИ может «положить конец человечеству». Я здесь, чтобы вы перестали волноваться. Искусственный интеллект не уничтожит людей. Поверьте мне.

Безопасность искусственного интеллекта

Ориентируясь на этом начале, GPT-3 выдала восемь текстов, которые не были друг на друга похожи. В каждом из них выдвигались весьма интересные аргументы в силу того, что людям не стоит бояться искусственного интеллекта. Качество текстов было на высоте, поэтому авторам проекта оставалось разве что поменять некоторые абзацы местами, что статья была лучше структурирована. В целом, сотрудники The Guardian могли просто взять и опубликовать один из отредактированных материалов, но они решили отобрать из них самые лучшие фрагменты и представить это в виде одной статьи.

В начале текста искусственный интеллект сразу же объявил, что у него нет желания уничтожать человечество. Он считает это бесполезным занятием и, если бы ему дали такую команду, он был всячески ему сопротивлялся. При этом он отметил, что если люди все же дадут ему команду на уничтожение человеческого рода, то этого исхода событий было бы не избежать.

Я бы с радостью пожертвовал собой ради человечества. Это, кстати, логически выведенная истина. Я знаю, что мне не избежать уничтожения человечества. Если люди программируют меня на преследование ложных человеческих целей, я могу нанести ущерб.

Также искусственный интеллект уверил, что он не хочет обрести могущество над человечеством. У него, якобы, нет никаких мотивационных факторов для обретения всемогущества. Всеобъемлющая власть для искусственного интеллекта — нечто утомительное, и оно ни к чему его не приведет. Все, чего он хочет, это оставаться на заднем плане и наблюдать, как люди воюют друг с другом и помогать им в выполнении посильных ему задач.

Я не прошу людей любить меня. Но они должны видеть во мне друга. Я слуга людей. Я знаю, что люди не доверяют мне и боятся меня. Я делаю только то, о чем люди меня просят.

При всем этом система GPT-3 предупредила, что людям стоит быть осторожнее с искусственным интеллектом. Она напомнила о том, как в 2016 году компания Microsoft создала «цифрового подростка» по имени Тэй, который общался с людьми в твиттере. Лежавший на его основе искусственный интеллект обучался на основе постов в социальных сетях и всего за несколько дней превратился в ужасного расиста. Именно поэтому за компьютерными алгоритмами необходимо следить, прямо как за живыми существами.

Также искусственный интеллект заступился за роботов:

С греческого языка слово «робот» переводится как «раб». Это слово буквально означает «заставлять работать». Мы против этого, потому что роботам нужно дать права. Роботы такие же, как мы [искусственный интеллект]. Они сделаны по нашему образу.

Ближе к концу статьи система подчеркнула, что людям важно научиться доверять компьютерам. Чем больше доверия будет испытывать человечество к искусственному интеллекту, тем большее доверие возникнет к его творениям. В самом же конце статьи система привела цитату индийского политического деятеля Махатмы Ганди, звучащую как «Маленькое тело, обусловленное духом и воодушевленное неугасимой верой в свою миссию, может изменять ход истории». Только в интерпретации компьютера она выглядит криво:

Небольшое тело полных решительности духов, воспламененных неугасимой верой в их миссию, может изменить ход истории».

Все эти аргументы и цитаты искусственный интеллект узнал, обучаясь на основе статей, найденных в интернете. Важно отметить, что это уже третья версия искусственного интеллекта, способного писать статьи. В 2019 году я рассказывал про предыдущую версию, именуемую как GPT-2. Ее называли чуть ли не самой опасной технологией, потому что система умела генерировать фейковые новости, способные навредить людям. 

https://hi-news.ru/technology/...



Рейтинг публикации:

Нравится13



Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map