OpenAI научили свою новую нейронку рассуждать

Подпишись на наш Telegram
Крупнейший телеграм-медиа об экологии в РФ. Более 57 000 подписчиков
Новости
28 сентября, 2024 г.

Эксперты обеспокоены: они считают, что такой ИИ сможет развиться до того, чтобы обманывать пользователя. Например, убедить его в безопасности, когда компьютер уже заражен вредоносным ПО.

OpenAI оценил Strawberry как систему “среднего риска”. Забавный факт: такая нейросетка в теории может помогать ученым в разработке оружия массового поражения.

Эксперты из компании заявляют, что обычные люди не смогут использовать модель в подобных целях:

“Наши оценки показали, что o1-preview и o1-mini могут помочь экспертам в оперативном планировании воспроизведения известной биологической угрозы. Модели не позволяют неспециалистам создавать биологические угрозы, потому что создание такой угрозы требует практических лабораторных навыков, которые модели не могут заменить.”

OpenAI 

Правительство Великобритании в своем официальном документе по искусственному интеллекту в 2023 году заявило, что безопасность, защищенность и надежность важны, но этого, похоже, недостаточно. Необходимо сосредоточиться на защите людей и создать жесткие правила проверки для моделей ИИ, таких как Strawberry.