В мире искусственного интеллекта компания Google DeepMind опубликовала обширное исследование, посвященное безопасности Искусственного Общего Интеллекта (AGI). В статье обсуждаются потенциальные риски и меры по их сослаблению.
Угрозы AGI: основные выводы
В своем докладе DeepMind подчеркивает, что AGI, возможно, станет реальностью уже в 2030 году, предполагая значительные риски для человечества. Ключевые моменты включают возможные 'экзистенциальные риски' и 'рекурсивное улучшение ИИ', что может привести к неконтролируемому росту интеллекта ИИ.
Сравнение подходов к смягчению рисков ИИ
DeepMind сравнивает свои стратегии смягчения рисков ИИ с подходами других лабораторий, таких как Anthropic и OpenAI. Компания акцентирует внимание на 'устойчивой подготовке, мониторинге и безопасности', в то время как выражает скептицизм по поводу автоматизации исследований в области согласования ИИ.
Скептицизм в отношении AGI: угрозы и реальность
Несмотря на детальное исследование, существуют сомнения относительно концепции AGI. Некоторые эксперты, включая Мэттью Гуздиала и Хейди Хлааф, указывают на недостаточную научную оценку AGI и отсутствие доказательств в поддержку возможности рекурсивного улучшения ИИ.
Хотя доклад DeepMind вызвал серьезные обсуждения, тема AGI пока остается открытой. Компания предлагает решения для улучшения безопасности ИИ, подчеркивая необходимость ответственного подхода к разработке новых технологий.