ОКО ПЛАНЕТЫ > Размышления о политике > «Момент Оппенгеймера» в ОпенАИ, нейросеть сдала ЕГЭ по обществознанию и китайские цифровые клоны

«Момент Оппенгеймера» в ОпенАИ, нейросеть сдала ЕГЭ по обществознанию и китайские цифровые клоны


27-11-2023, 14:06. Разместил: Око Политика


1. Новые утечки из ОпенАИ заставляют подозревать, что там приблизились к созданию Универсального Интеллекта (что мы ранее с вами уже обсуждали). Скандал с увольнением Сэма Альтмана, под руководством которого разработали ЧатЖПТ, связан именно с тем, что он утаивал от совета директоров опасные исследования (ссылка):
 
Неудавшийся переворот в руководстве OpenAI позади, а его причины остаются скрытыми от общественности. На это указал Илон Маск еще когда конфликт только начался, но внятных ответов на вопрос, из-за чего же Илья Суцкевер решился вдруг сместить Сэма Альтмана, журналисты до сих пор не получили. Тем не менее, агентству Reuters удалось узнать, что причиной стали некие открытия в области сильного ИИ, которые несут угрозу человечеству. Увольнением Альмана совет директоров пытался остановить эти разработки и проиграл.

По информации, полученной Reuters от информированных источников, несколько сотрудников OpenAI письменно обратились к совету директоров, сообщив о важном открытии, которое может привести к появлению мощного искусственного интеллекта, опасного для людей. Эти письма и алгоритм ИИ стали причиной обвинений Сэма Альтмана, генерального директора OpenAI, в недостаточной открытости. Другими словами, он, якобы, скрывал эти разработки от совета директоров. <…>

Копию самого письма Reuters получить не смогло, а его авторы не стали давать никаких комментариев. Официальные лица компании тоже отказались прояснить ситуацию. Однако Мира Мурати (которая отказалась от предложения мятежного правления занять кресло Альтмана) разослала сотрудникам внутреннее сообщение, где упоминается некий проект Q* («Кью-Стар») и письмо совету директоров. На это представитель OpenAI заявил, что Мурати просто предупреждала штат о существовании таких предположений, но не комментировала их истинность.

По мнению некоторых сотрудников компании, проект «Кью-Стар» может стать прорывом в разработке так называемого сильного, или универсального ИИ, заявил один из источников. По определению OpenAI, универсальный ИИ превосходит человека по большинству экономически значимых показателей.

Учитывая огромную вычислительную мощность компании, новая модель могла решать определенные математические задачи. И хотя она делала это на уровне учеников начальной школы, прохождение таких тестов давало разработчикам «Кью-Стар» основание для оптимизма. Современные генеративные ИИ хорошо справляются с языковыми задачами, предсказывая следующее слово методами статистики, и могут давать совершенно разные ответы на один и тот же вопрос. А получив способность к математике, где правильный ответ обычно один, ИИ приблизится к человеческому интеллекту. И сможет обобщать, учиться и понимать.

Насколько можно понять из пока обрывочных сведений о разработке Q*, потрясло Альтмана и всех внутри то, что они столкнулись с первым проявлением того, что можно назвать суперинтеллектом — этот ИИ начал давать точные ответы на математические задачи без обучения.
Именно это, а в широком смысле — способность отличать истину от лжи, оставалось фундаментальным барьером для нынешней лингвистической модели GPT. Это подразумевает возможность самообучения и саморазвития на самостоятельно полученных данных. <…>

Конспирологическая версия о том, что внезапное увольнение Альтмана объясняется тем, что совет директоров OpenAI пережил «момент Оппенгеймера» (момент, когда изобретатель осознает, какую угрозу человечеству несет его изобретение), появилась в первые дни после скандала в OpenAI. Но до статьи Reuters никаких прямых подтверждений этому не было. Их и теперь немного, но догадки в целом подтвердились — в своих исследованиях сотрудники OpenAI натолкнулись на что-то, что апологета ИИ Сэма Альмана воодушевило, а главного ученого компании и остальных трех директоров испугало настолько, что они попытались немедленно уволить Альтмана и остановить эти работы. Не получилось. Q* победил.


В общем, что бы это ни было, совершенно ясно, что на разработку ИИ надо тратить деньги, не жалея. Страшно представить, как США смогут навредить миру, получив в свои руки столь мощное оружие.


2. Когда нейросеть от Яндекса сдала экзамен по литературе (ссылка), многие над этим только лишь посмеялись: подумаешь, на что в этой жизни может повлиять робот с уровнем интеллекта первокурсницы филфака. Но вот теперь другая нейросеть, от Сбербанка, сдала экзамен по обществознанию (ссылка):
 
Нейросетевая модель GigaChat выполнила все задания единого государственного экзамена по обществознанию и набрала 67 баллов, что превышает минимальный балл для подачи в вуз (45 баллов) и средний балл по предмету в 2023 году (56,4 балла). Об этом в рамках конференции AIJ 2023 рассказал вице-президент по Цифровым поверхностям «Салют» Сбербанка Денис Филиппов.

«Для нас важно оценивать эффективность GigaChat не только по техническим метрикам, но и с точки зрения обычного человека — способен ли сервис помочь в какой-то отдельной области знаний, насколько модель сообразительна, креативна. Для такой оценки хорошо подходят тесты, используемые в системе образования, включая ЕГЭ. Результаты экзамена говорят о том, что GigaChat хорошо эрудирован в области социальных наук. Значит, наш искусственный интеллект понимает основные законы общества и ориентируется в вопросах морали…


По своей задумке, обществознание – это первый шаг к тому, чтобы освоить государственное управление. В итоге можно будет кардинально сократить численность чиновников, поставив на ответственные должности роботов вместо кожаных мешков.


3. Тем временем в Китае нейросети уже начали отбирать работу у видеоблогеров (ссылка):

Китайская компания Xiaoice поставила на поток создание «искусственных стримеров» — она при помощи нейросети создает имитацию популярных блогеров, которые выходят в эфир на популярных сервисах вроде TikTok или Twitch и продают товары онлайн, отнимая работу у сотен китайцев. Теперь лидера мнений можно заменить за 1100 долларов, цифровая копия может работать 24 часа в сутки и 7 дней в неделю, не прерываясь на приемы пищи, сон и походы в туалет. Киберпанк наяву…



Вернуться назад