В свете растущих опасений по поводу безопасности детей в интернете, новая инициатива требует от компаний, работающих в сфере искусственного интеллекта, адаптировать свои услуги для пользователей младше 18 лет, как следует из официальной информации. Это предложение направлено на защиту несовершеннолетних от потенциальных рисков, связанных с использованием AI-технологий.
Обновленная инициатива для AI-компаний
Обновленная инициатива предполагает, что AI-компании должны предоставлять различные версии своих услуг для пользователей, которые идентифицированы как младше 18 лет, даже если они утверждают, что старше. Это означает, что компании должны внедрить механизмы, позволяющие ограничить доступ к определенным функциям и контенту, которые могут быть небезопасными для детей.
Требования к родительскому контролю и безопасности
Кроме того, инициатива требует от компаний внедрения родительского контроля, что позволит родителям лучше управлять тем, как их дети взаимодействуют с AI. Также предусмотрено прохождение независимых проверок безопасности для детей, что должно повысить уровень доверия к технологиям. Важным аспектом является прекращение рекламы, направленной на детей, что поможет снизить риск манипуляции и воздействия на уязвимую аудиторию.
- Внедрение родительского контроля
- Прохождение независимых проверок безопасности для детей
- Прекращение рекламы, направленной на детей
Актуальность для OpenAI
Эта инициатива особенно актуальна для OpenAI, которая уже столкнулась с судебными исками от семей, утверждающих, что взаимодействие с ChatGPT нанесло вред их детям. Новые меры могут помочь компании избежать дальнейших юридических проблем и продемонстрировать свою приверженность к безопасности пользователей.
В то время как инициатива по защите детей в интернете набирает популярность, мем-криптовалюта PEPE демонстрирует признаки восстановления после недавнего падения. Узнайте больше о текущем состоянии PEPE подробнее.








