Сделать стартовой  |  Добавить в избранное  |  RSS 2.0  |  Информация авторамВерсия для смартфонов
           Telegram канал ОКО ПЛАНЕТЫ                Регистрация  |  Технические вопросы  |  Помощь  |  Статистика  |  Обратная связь
ОКО ПЛАНЕТЫ
Поиск по сайту:
Авиабилеты и отели
Регистрация на сайте
Авторизация

 
 
 
 
  Напомнить пароль?



Клеточные концентраты растений от производителя по лучшей цене


Навигация

Реклама

Важные темы


Анализ системной информации

» » » «Момент Оппенгеймера» в ОпенАИ, нейросеть сдала ЕГЭ по обществознанию и китайские цифровые клоны

«Момент Оппенгеймера» в ОпенАИ, нейросеть сдала ЕГЭ по обществознанию и китайские цифровые клоны


27-11-2023, 14:06 | Политика / Размышления о политике | разместил: Око Политика | комментариев: (0) | просмотров: (779)


1. Новые утечки из ОпенАИ заставляют подозревать, что там приблизились к созданию Универсального Интеллекта (что мы ранее с вами уже обсуждали). Скандал с увольнением Сэма Альтмана, под руководством которого разработали ЧатЖПТ, связан именно с тем, что он утаивал от совета директоров опасные исследования (ссылка):
 
Неудавшийся переворот в руководстве OpenAI позади, а его причины остаются скрытыми от общественности. На это указал Илон Маск еще когда конфликт только начался, но внятных ответов на вопрос, из-за чего же Илья Суцкевер решился вдруг сместить Сэма Альтмана, журналисты до сих пор не получили. Тем не менее, агентству Reuters удалось узнать, что причиной стали некие открытия в области сильного ИИ, которые несут угрозу человечеству. Увольнением Альмана совет директоров пытался остановить эти разработки и проиграл.

По информации, полученной Reuters от информированных источников, несколько сотрудников OpenAI письменно обратились к совету директоров, сообщив о важном открытии, которое может привести к появлению мощного искусственного интеллекта, опасного для людей. Эти письма и алгоритм ИИ стали причиной обвинений Сэма Альтмана, генерального директора OpenAI, в недостаточной открытости. Другими словами, он, якобы, скрывал эти разработки от совета директоров. <…>

Копию самого письма Reuters получить не смогло, а его авторы не стали давать никаких комментариев. Официальные лица компании тоже отказались прояснить ситуацию. Однако Мира Мурати (которая отказалась от предложения мятежного правления занять кресло Альтмана) разослала сотрудникам внутреннее сообщение, где упоминается некий проект Q* («Кью-Стар») и письмо совету директоров. На это представитель OpenAI заявил, что Мурати просто предупреждала штат о существовании таких предположений, но не комментировала их истинность.

По мнению некоторых сотрудников компании, проект «Кью-Стар» может стать прорывом в разработке так называемого сильного, или универсального ИИ, заявил один из источников. По определению OpenAI, универсальный ИИ превосходит человека по большинству экономически значимых показателей.

Учитывая огромную вычислительную мощность компании, новая модель могла решать определенные математические задачи. И хотя она делала это на уровне учеников начальной школы, прохождение таких тестов давало разработчикам «Кью-Стар» основание для оптимизма. Современные генеративные ИИ хорошо справляются с языковыми задачами, предсказывая следующее слово методами статистики, и могут давать совершенно разные ответы на один и тот же вопрос. А получив способность к математике, где правильный ответ обычно один, ИИ приблизится к человеческому интеллекту. И сможет обобщать, учиться и понимать.

Насколько можно понять из пока обрывочных сведений о разработке Q*, потрясло Альтмана и всех внутри то, что они столкнулись с первым проявлением того, что можно назвать суперинтеллектом — этот ИИ начал давать точные ответы на математические задачи без обучения.
Именно это, а в широком смысле — способность отличать истину от лжи, оставалось фундаментальным барьером для нынешней лингвистической модели GPT. Это подразумевает возможность самообучения и саморазвития на самостоятельно полученных данных. <…>

Конспирологическая версия о том, что внезапное увольнение Альтмана объясняется тем, что совет директоров OpenAI пережил «момент Оппенгеймера» (момент, когда изобретатель осознает, какую угрозу человечеству несет его изобретение), появилась в первые дни после скандала в OpenAI. Но до статьи Reuters никаких прямых подтверждений этому не было. Их и теперь немного, но догадки в целом подтвердились — в своих исследованиях сотрудники OpenAI натолкнулись на что-то, что апологета ИИ Сэма Альмана воодушевило, а главного ученого компании и остальных трех директоров испугало настолько, что они попытались немедленно уволить Альтмана и остановить эти работы. Не получилось. Q* победил.


В общем, что бы это ни было, совершенно ясно, что на разработку ИИ надо тратить деньги, не жалея. Страшно представить, как США смогут навредить миру, получив в свои руки столь мощное оружие.


2. Когда нейросеть от Яндекса сдала экзамен по литературе (ссылка), многие над этим только лишь посмеялись: подумаешь, на что в этой жизни может повлиять робот с уровнем интеллекта первокурсницы филфака. Но вот теперь другая нейросеть, от Сбербанка, сдала экзамен по обществознанию (ссылка):
 
Нейросетевая модель GigaChat выполнила все задания единого государственного экзамена по обществознанию и набрала 67 баллов, что превышает минимальный балл для подачи в вуз (45 баллов) и средний балл по предмету в 2023 году (56,4 балла). Об этом в рамках конференции AIJ 2023 рассказал вице-президент по Цифровым поверхностям «Салют» Сбербанка Денис Филиппов.

«Для нас важно оценивать эффективность GigaChat не только по техническим метрикам, но и с точки зрения обычного человека — способен ли сервис помочь в какой-то отдельной области знаний, насколько модель сообразительна, креативна. Для такой оценки хорошо подходят тесты, используемые в системе образования, включая ЕГЭ. Результаты экзамена говорят о том, что GigaChat хорошо эрудирован в области социальных наук. Значит, наш искусственный интеллект понимает основные законы общества и ориентируется в вопросах морали…


По своей задумке, обществознание – это первый шаг к тому, чтобы освоить государственное управление. В итоге можно будет кардинально сократить численность чиновников, поставив на ответственные должности роботов вместо кожаных мешков.


3. Тем временем в Китае нейросети уже начали отбирать работу у видеоблогеров (ссылка):

Китайская компания Xiaoice поставила на поток создание «искусственных стримеров» — она при помощи нейросети создает имитацию популярных блогеров, которые выходят в эфир на популярных сервисах вроде TikTok или Twitch и продают товары онлайн, отнимая работу у сотен китайцев. Теперь лидера мнений можно заменить за 1100 долларов, цифровая копия может работать 24 часа в сутки и 7 дней в неделю, не прерываясь на приемы пищи, сон и походы в туалет. Киберпанк наяву…




Источник: Олег Макаренко: Место для дискуссий.

Рейтинг публикации:

Нравится8



Комментарии (0) | Распечатать

Добавить новость в:


 

 
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Чтобы писать комментарии Вам необходимо зарегистрироваться либо войти на сайт под своим именем.





» Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации. Зарегистрируйтесь на портале чтобы оставлять комментарии
 


Новости по дням
«    Ноябрь 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
252627282930 

Погода
Яндекс.Погода


Реклама

Опрос
Ваше мнение: Покуда территориально нужно денацифицировать Украину?




Реклама

Облако тегов
Акция: Пропаганда России, Америка настоящая, Арктика и Антарктика, Блокчейн и криптовалюты, Воспитание, Высшие ценности страны, Геополитика, Импортозамещение, ИнфоФронт, Кипр и кризис Европы, Кризис Белоруссии, Кризис Британии Brexit, Кризис Европы, Кризис США, Кризис Турции, Кризис Украины, Любимая Россия, НАТО, Навальный, Новости Украины, Оружие России, Остров Крым, Правильные ленты, Россия, Сделано в России, Ситуация в Сирии, Ситуация вокруг Ирана, Скажем НЕТ Ура-пЭтриотам, Скажем НЕТ хомячей рЭволюции, Служение России, Солнце, Трагедия Фукусимы Япония, Хроника эпидемии, видео, коронавирус, новости, политика, спецоперация, сша, украина

Показать все теги
Реклама

Популярные
статьи



Реклама одной строкой

    Главная страница  |  Регистрация  |  Сотрудничество  |  Статистика  |  Обратная связь  |  Реклама  |  Помощь порталу
    ©2003-2020 ОКО ПЛАНЕТЫ

    Материалы предназначены только для ознакомления и обсуждения. Все права на публикации принадлежат их авторам и первоисточникам.
    Администрация сайта может не разделять мнения авторов и не несет ответственность за авторские материалы и перепечатку с других сайтов. Ресурс может содержать материалы 16+


    Map