В сфере технологий Google вызвал волну обсуждений об этике ИИ, убрав термины «разнообразие» и «равенство» с веб-страницы команды по Ответственному ИИ и ориентированным на человека технологиям.
Исчезновение разнообразия в команде Google по Ответственному ИИ
Изменения, замеченные группой The Midas Project, показывают, что где ранее использовались фразы, акцентирующие внимание на поддержке «маргинализированных сообществ» и «недостаточно представленных групп», теперь употребляются более общие термины. Похоже, что моральная линия меняется, поскольку термины «разнообразие» и «равенство» стали редкими или вовсе исчезли.
Тренд или совпадение? Диверсифицированные направления в техносекторе под угрозой
Действия Google не единичны. В последние месяцы такие компании, как Amazon, Meta и OpenAI, также уменьшили акцент на разнообразие и включение в своих стратегиях. Эти изменения вызывают вопросы о том, задают ли компании новой крупной технолинии вопрос о своих публичных обязательствах по DEI или процесс обратный.
Почему важно не исключать разнообразие из Ответственного ИИ
Разнообразие в командах разработки ИИ помогает идентифицировать и уменьшать потенциальные предвзятости алгоритмов. Это ведет к созданию и применению справедливых и инклюзивных ИИ-систем, продвигая инновации и расширяя горизонты решения проблем. Удаление таких понятий может ослабить обязательства по созданию действительно ответственного ИИ.
Действие Google вызывает серьезные вопросы о будущем этики ИИ и роли разнообразия в этом процессе. Это открытие подчеркивает важность навсегда внимательного отношения к принципам ответственности, равенства и инклюзивности в технологических разработках.