Федеральная торговая комиссия США (FTC) начала расследование по поводу потенциальных рисков, которые AI-роботы представляют для психического здоровья детей. В центре внимания находятся такие компании, как OpenAI, Meta Platforms и Character.AI.
Начало расследования
Расследование, объявленное 4 сентября 2025 года, направлено на изучение возможных опасных взаимодействий AI-систем с детьми. В рамках процесса FTC собирается запросить внутренние документы компаний. Поводом послужили растущие опасения относительно того, что чатботы могут предоставлять неподобающий или опасный контент для молодых пользователей.
Ответ отрасли и контекст регулирования
Некоторые компании начали внедрять новые меры безопасности после растущего внимания к данной проблеме. Например, Meta добавила новые функции безопасности в свои AI-продукты на прошлой неделе. Компания Kindness.AI заявила о готовности сотрудничать с регуляторами и законодателями, несмотря на отсутствие контакта с FTC на тот момент.
Реакция на обращения общественности
Расследование является частью более широкой инициативы правительства США по установлению четких правил для быстро развивающегося сектора AI. Власть настроена на то, чтобы сделать предприятия, занимающиеся AI, ответственными за результаты, которые могут нанести вред уязвимым группам населения. Это может привести к важным примерам безопасности и прозрачности в разработке AI-технологий.
Расследование FTC может оказать значительное влияние на правила разработки AI, предполагая внедрение моральных и психических защит на всех этапах, а не как добавление в последнюю очередь.