Сооснователь Ethereum Виталик Бутерин выступил с критикой сценария AI 2027, который предсказывает, что к 2030 году несовпадающий суперумный ИИ станет угрозой для цивилизации.
Аргументы против катастрофического сценария
В своём недавнем посте Бутерин ответил на предсказания некоторых экспертов, утверждая, что сценарий AI 2027 недооценивает способности человечества к защите. Он считает, что такое пессимистичное видение игнорирует потенциальные технические достижения, которые будут доступны в будущем.
Человеческий прогресс в ответ на угрозы ИИ
По словам Бутерина, будущее технологий будет включать такие достижения, как улучшенные системы иммунитета и фильтрации воздуха, которые смогут значительно снизить риски биологических атак. Он также отметил, что возможность появления технологий, таких как наноботы и Дайсон-сферы, может быть сопоставима с прогрессом в оборонных технологиях.
Защита и децентрализованные инструменты в сфере ИИ
Бутерин выступил против идеи о существовании единственного ‘хорошего ИИ’ и призвал к открытости в разработке защитных средств и международным соглашениям относительно аппаратного обеспечения. Он считает, что для противостояния угрозам необходимо развивать децентрализованные инструменты и меры защиты.
Мнения Виталика Бутерина вносят изменения в дискуссию об ИИ, подчеркивая, что вместо того, чтобы сосредотачиваться исключительно на угрозах, важно развивать инновационные подходы к защите и адаптации человечества.