Недавнее исследование выявило масштабную кампанию по редактированию статей в Википедии, направленную на искажение фактов о Иране и ХАМАС. Группа редакторов, состоящая из около 40 человек, внесла более миллиона правок, чтобы создать более позитивный образ иранского режима. Из анализа следует, что ситуация вызывает определённую тревогу.
Изменение информации в Википедии
По данным исследования, активные редакторы целенаправленно изменяли информацию, что может оказать серьезное влияние на восприятие событий в регионе.
Последствия для пользователей и ИИ
Несмотря на то, что Википедия уже начала исправлять искаженные статьи, последствия этих правок могут затронуть не только пользователей, но и системы искусственного интеллекта, такие как ChatGPT, которые используют данные из открытых источников для обучения.
Предупреждения экспертов
Эксперты предупреждают, что подобные манипуляции с информацией могут привести к распространению недостоверных данных и формированию ложных представлений о международной политике.
Стартап Conntour из Бостона привлек 7 миллионов долларов для разработки AI-поисковика для видеонаблюдения, что подчеркивает растущий интерес к технологиям безопасности на фоне недавних манипуляций с информацией в Википедии. Читать далее








