Европейская комиссия по защите данных изучила вопросы законности использования генерирующего ИИ, выявив возможные правовые лазейки.
Вопросы защиты данных и внедрение ИИ
Европейская комиссия по защите данных (ЕКЗД) опубликовала своё мнение по вопросам обработки личных данных в рамках разработки и внедрения искусственного интеллекта. Комиссия рассмотрела, когда модели ИИ могут считаться анонимными, и как контролеры могут обосновывать законный интерес при их использовании. Орган указал на важность оценки национальными надзорными органами предоставленной документации для определения анонимности модели, а также на необходимость минимизации сбора персональных данных.
Комиссия Ирландии о регуляции моделей ИИ
Ирландская комиссия по защите данных отметила, что мнение ЕКЗД способствует более эффективному регулированию моделей ИИ в ЕС. По мнению Комиссии, это упростит взаимодействие с компаниями, разрабатывающими новые модели ИИ до их выхода на рынок ЕС. Комиссар Дейл Сандерленд поддержал это заявление.
Проблемы с OpenAI и ChatGPT в Европе
В последние месяцы внимание было привлечено к OpenAI, разработчику ChatGPT, в связи с нарушениями требований GDPR. Польское ведомство по защите данных усомнилось в соблюдении OpenAI требований GDPR, в частности в отношении предварительных консультаций с надзорными органами при угрозе нарушения персональных данных. Итальянский регулятор также потребовал от OpenAI прекратить обработку персональных данных до устранения выявленных нарушений, включая отсутствие мер по предотвращению доступа несовершеннолетних к технологии.
Рассмотрение вопросов законности генерации и обработки данных в искусственном интеллекте становится все более актуальной задачей для обеспечения сохранности персональных данных в быстро развивающемся секторе ИИ.