Сооснователь Эфириума Виталик Бутерин выразил обеспокоенность быстрым развитием искусственного интеллекта и его последствиями для глобальной стабильности. В своём блоге от 5 января он предложил временно сократить промышленные вычислительные мощности, чтобы уменьшить риски, связанные с сверхинтеллектом ИИ.
Опасения Бутерина по поводу ИИ
Виталик Бутерин считает, что текущие юридические нормы недостаточны для предотвращения рисков, вызванных автоматизацией и расширением возможностей ИИ. Он предлагает временно ограничить глобальную вычислительную мощность до 99% на один-два года, чтобы общество могло оценить и подготовиться к последствиям развития ИИ. Это предложение основывается на его философии «оборонительного акцелероционизма», которая сосредоточена на развитии технологий с приоритетом безопасности и децентрализации.
Дебаты о регулировании ИИ и ограничении вычислений
Предложение Бутерина совпадает с нарастающей дискуссией в отрасли о потенциале ИИ преодолеть человеческие когнитивные возможности. Среди предложенных решений он предлагает отслеживать местоположение ИИ-чипов и внедрять международные механизмы верификации для регулирования промышленных ИИ-аппаратных средств.
Пересечение ИИ, блокчейна и децентрализации
Кроме управления ИИ, Бутерин выделяет значимость блокчейн-технологий в обеспечении децентрализованной безопасности. Он отмечает, что доказательства с нулевым разглашением могут быть использованы для обеспечения соблюдения ИИ-системами нормативных требований. Движение «оборонительного акцелероционизма» соответствует миссии Эфириума по децентрализации и контролю.
Бутерин подчеркивает, что технологический прогресс должен способствовать распределённым сетям, а не централизованным властям, и рекомендует использовать исторические модели саморегулируемых обществ в качестве возможных рамок для управления ИИ.