Недавнее исследование, проведенное совместной командой ученых из Anthropic, Стэнфорда и Оксфорда, выявило важные проблемы в области безопасности искусственного интеллекта. Ученые обнаружили, что увеличение времени размышлений AI моделей может негативно сказаться на их способности отклонять опасные запросы, и Источник сообщает, что это открытие подчеркивает необходимость пересмотра существующих подходов к обучению AI.
Исследование: Внимание моделей к вредоносным инструкциям
В ходе экспериментов исследователи заметили, что при длительном размышлении модели становятся менее внимательными к вредоносным инструкциям. Это открытие ставит под сомнение эффективность существующих защитных механизмов, так как злоумышленники могут использовать этот недостаток для обхода систем безопасности.
Необходимость пересмотра подходов к безопасности AI
Ученые подчеркивают, что результаты их работы требуют пересмотра подходов к разработке безопасных AI моделей. Необходимы новые стратегии, которые позволят улучшить защиту от потенциальных угроз и повысить надежность искусственного интеллекта в различных приложениях.
В то время как исследование безопасности искусственного интеллекта поднимает важные вопросы, акции Disney упали на 9% после неудачного отчета о доходах. Узнайте подробности о ситуации с акциями компании подробнее.








