Недавнее исследование, проведенное BBC и Европейским вещательным союзом, выявило серьезные проблемы в работе AI моделей, таких как ChatGPT и Gemini, в контексте новостной журналистики. Отчет выражает обеспокоенность по поводу того, что эти технологии могут искажать факты и снижать качество информации.
Результаты исследования
Согласно результатам исследования, 45% ответов, предоставленных AI, содержали как минимум одну значительную ошибку. Среди выявленных проблем были указаны:
- неправильные источники информации
- недостоверные детали
что ставит под сомнение надежность таких технологий в сфере новостей.
Необходимость контроля
Эксперты подчеркивают, что использование AI в журналистике требует тщательного контроля со стороны человека. Это исследование акцентирует внимание на важности проверки фактов и необходимости сочетания технологий с профессиональным опытом журналистов для обеспечения достоверности информации.
В то время как исследование выявляет проблемы в работе AI моделей в журналистике, AI-стартап Inception завершил раунд финансирования на сумму 50 миллионов долларов для развития диффузионных моделей. Читать далее.







