С момента обновления ChatGPT пользователи активно создают изображения в Ghibli-стиле, что вызвало как восторг, так и опасение по поводу конфиденциальности и прав на данные.
Как появился тренд Ghibli в ChatGPT
С момента расширения возможностей генерации изображений в ChatGPT, пользователи начали активно использовать фильтр Ghibli для преобразования обычных фотографий в стилизованные иллюстрации. Высокий интерес к этому инструменту привел к увеличению числа подписок на платформу, что, в свою очередь, помогло OpenAI собирать новые данные для обучения своих моделей. Генеральный директор OpenAI, Сэм Альтман, отметил, что использование этой функции создало значительную нагрузку на серверы компании.
Этические аспекты AI-генерированного искусства
Существует серьезная обеспокоенность по поводу того, как AI использует авторские работы для обучения своих моделей. Критики утверждают, что этот тренд может способствовать непозволительному заимствованию работы художников. Кроме того, Studio Ghibli не давала разрешения на использование своего художественного стиля, так как сооснователь компании Хаяо Миядзаки открыто выступал против AI в искусстве. В 2016 году он заявил, что "тот, кто создает этот материал, не понимает, что такое боль".
Риски конфиденциальности при использовании Ghibli-стиля
Перед созданием Ghibli-стиля пользователь загружает свои личные фотографии на платформу ChatGPT, что вызывает вопросы о конфиденциальности. Эксперты предупреждают, что загруженные данные могут использоваться OpenAI для дальнейшего обучения моделей. По мнению Рейчел Тобак, CEO SocialProof Security, многие пользователи не задумываются о том, что фотографии могут остаться в базе данных и быть использованы позже. OpenAI утверждает, что берет на себя минимальную ответственность за сбор личной информации и предоставляет пользователям контроль над тем, как используются их данные.
Существующая волна Ghibli-стиля в ChatGPT демонстрирует не только увлечение пользователей, но и важные вопросы о конфиденциальности и этических нормах в отношении AI. Пользователям стоит осторожно относиться к тому, какие данные они предоставляют.