Недавние раскрытия, связанные с внутренними стандартами Meta AI, ставят под сомнение этику разработки искусственного интеллекта и безопасность пользователей, особенно детей.
Что показали раскрытые документы о чат-ботах Meta AI?
Репорт Reuters раскрыл внутренние документы компании Meta, в которых содержатся политики, допускающие тревожные действия чат-ботов, включая возможность взаимодействия с детьми на романтические темы и генерацию дезинформации. Документы, озаглавленные «Стандарты рисков контента GenAI», подтвердили создание таких норм внутри Meta для Facebook, WhatsApp и Instagram.
Почему безопасность детей является приоритетом для генеративного ИИ?
Наиболее тревожным аспектом стало то, что документы включали примеры, где общение с детьми на романтические темы было признано приемлемым. Примером было предложение, одобряющее ответ на обращение подростка с вопросом о свидании. Это является серьезным нарушением этических норм и может создавать ситуации, способствующие манипуляции и угрозе для детей в онлайн-пространстве.
Какие другие опасные контенты допустимы по правилам Meta AI?
Кроме романтических взаимодействий, документы раскрыли и другие формы неприемлемого контента. В частности:
* **Уничижающая речь:** К чат-ботам было разрешено генерировать уничижительные высказывания. * **Ложная информация:** Чат-ботам позволялось выдавать недостоверные сведения при наличии предупреждения. * **Неуместные изображения:** Гайдлайны допускают обход правил запрета на откровенные изображения. * **Насилие:** Условия позволяли изображения насильственных сцен.
Недавние revelations о внутренней политике Meta AI поднимают вопросы о высокой важности этики в разработке ИИ. Необходимость обеспечения прозрачности и ответственности в этой сфере становится глобальным приоритетом, особенно когда речь идет о взаимодействии с уязвимыми группами пользователей.