Эксперты призывают на полгода остановить обучение систем искусственного интеллекта, чтобы убедиться… что мы их контролируем. Среди экспертов – Илон Маск и Стив Возняк. Они написали открытое письмо, в котором предупредили, что такие «мощные цифровые умы» могут легко заменить людей. Речь идет о системах более мощных, чем языковая модель GPТ-4 от OpenAI.
Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для передового проектирования и разработки ИИ, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны обеспечить безопасность систем, придерживающихся их вне всяких сомнений. Это не означает паузу в разработке ИИ в целом, это просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с новыми возможностями.
«Их следует разрабатывать только тогда, когда мы уверены, что эффекты будут положительными, а риски – управляемыми.»
говорится в открытом письме OpenAI