В своем блоге Виталик Бутерин призвал к временной паузе в разработке суперинтеллектуального ИИ, чтобы человечество могло подготовиться к потенциальным угрозам.
Опасения Бутерина по поводу ИИ
Виталик Бутерин в своем блоге выразил опасения по поводу того, что ИИ может превзойти человеческий интеллект во всех сферах в течение ближайших пяти лет. Он предупреждает, что это может иметь серьезные последствия для общества.
Предложение по ограничению ИИ
Бутерин предлагает временно ограничить глобальные вычислительные ресурсы на срок от одного до двух лет, чтобы замедлить развитие суперинтеллектуального ИИ. Это поможет человечеству адаптироваться к новым технологиям. В качестве дополнительной меры он предлагает внедрить специальные чипы, требующие еженедельной авторизации от международных организаций для продолжения работы.
Регулирование ИИ и возможные меры
Бутерин считает, что одним из способов ограничить риски может быть введение правовых норм ответственности для разработчиков и пользователей ИИ. Он также предложил учитывать возможность паузы в использовании аппаратного обеспечения ИИ, если правовые нормы окажутся недостаточными.
Бутерин полагает, что временная пауза в развитии ИИ позволит избежать потенциальных катастроф и даст человечеству время на подготовку к новым вызовам.