Эксперты обеспокоены: они считают, что такой ИИ сможет развиться до того, чтобы обманывать пользователя. Например, убедить его в безопасности, когда компьютер уже заражен вредоносным ПО.
OpenAI оценил Strawberry как систему “среднего риска”. Забавный факт: такая нейросетка в теории может помогать ученым в разработке оружия массового поражения.
Эксперты из компании заявляют, что обычные люди не смогут использовать модель в подобных целях:
“Наши оценки показали, что o1-preview и o1-mini могут помочь экспертам в оперативном планировании воспроизведения известной биологической угрозы. Модели не позволяют неспециалистам создавать биологические угрозы, потому что создание такой угрозы требует практических лабораторных навыков, которые модели не могут заменить.”
OpenAI
Правительство Великобритании в своем официальном документе по искусственному интеллекту в 2023 году заявило, что безопасность, защищенность и надежность важны, но этого, похоже, недостаточно. Необходимо сосредоточиться на защите людей и создать жесткие правила проверки для моделей ИИ, таких как Strawberry.