OpenAI объявила, что не будет интегрировать свою мощную модель глубокого исследования в API, чтобы изучить и минимизировать потенциальные риски ИИ, включая манипуляцию убеждениями.
Риски манипуляции ИИ: позиция OpenAI
OpenAI удерживает свою модель глубокого исследования от интеграции в API, подчеркивая важность анализа рисков манипуляции ИИ. Компания обнародовала белую книгу, поясняющую необходимость доработки методов оценки возможности использования моделей ИИ для негативного воздействия на убеждения в реальных сценариях. Основная задача — предотвращение масштабного распространения дезинформации.
Угроза дезинформации: примеры из реальной жизни
Страхи по поводу использования ИИ для распространения дезинформации подтверждаются примерами из реальной жизни. Так, недавно в Тайване была запущена кампания по распространению аудиозаписей, созданных с помощью ИИ, чтобы дезинформировать избирателей о позициях кандидатов. Кроме того, мошенники используют ИИ для атак социальной инженерии, создавая фейки знаменитостей для обмана потребителей и корпораций.
Тесты производительности и убеждения модели глубокого исследования
Белая книга OpenAI предоставляет результаты тестов на убедительность модели глубокого исследования, известной как "модель рассуждения o3". Она показывает лучшие результаты в убедительных аргументах среди моделей OpenAI, хотя и не превосходит человеческий уровень в тестах. В контексте убедительности модель превосходит другие в задании MakeMePay, но уступает GPT-4o в других тестах. Эти результаты раскрывают потенциал модели, требующий дальнейшей разработки.
Решение OpenAI задержать интеграцию своей модели глубокого исследования в API демонстрирует сознательный подход к развитию ИИ. Акцент на безопасности и этике становится особенно актуальным по мере усиления возможностей моделей ИИ.