Новости и Аналитика

0

Сэм Альтман уходит из Комитета безопасности и защиты OpenAI

Сен 17, 2024
  1. Состав Комитета безопасности и защиты
  2. Критика и обеспокоенность по поводу OpenAI
  3. Планы OpenAI по привлечению инвестиций

CEO OpenAI Сэм Альтман ушел из внутреннего Комитета безопасности и защиты компании, созданного в мае для принятия ключевых решений по безопасности. Этот шаг произошел на фоне обеспокоенности законодателей США и бывших сотрудников OpenAI по поводу вопросов безопасности и соблюдения законов.

Состав Комитета безопасности и защиты

Комитет безопасности и защиты теперь будет функционировать как отдельный комитет на уровне совета директоров, который следит за вопросами безопасности. Новый состав комитета включает профессора Карнеги-Меллонского университета Зико Колтера в качестве председателя, а также CEO Quora Адама Д’Анджело, отставного генерала армии США Пола Накасоне и бывшего руководителя Sony Николь Селигман. Все они являются текущими членами совета директоров OpenAI. Группа по-прежнему будет иметь полномочия задерживать выпуск моделей ИИ до тех пор, пока не будут решены вопросы безопасности.

Критика и обеспокоенность по поводу OpenAI

В [блог-посте](https://openai.com/index/update-on-safety-and-security-practices/) после ухода Альтмана, OpenAI вновь подтвердила своё стремление к безопасности и отметила, что комитет ранее одобрил безопасность новой модели, o1. Комитет будет регулярно получать дополнительную информацию от сотрудников по безопасности и защите компании, чтобы быть в курсе будущих выпусков моделей ИИ. OpenAI также планирует повысить меры безопасности путем проведения технических обзоров и четких целей для запуска моделей. Критика возникла после обращения пяти сенаторов США, [выразивших](https://www.king.senate.gov/newsroom/press-releases/king-colleagues-demand-answers-from-openai-following-reports-of-safety-and-secrecy-concerns#:~:text=In%20the%20letter%20to%20OpenAI,safety%20review%20and%20insufficient%20cybersecurity) озабоченность по поводу мер безопасности компании этим летом. Критики также [отметили](https://www.cryptopolitan.com/openai-former-researchers-california-ai-bill/), что более половины сотрудников, отвечающих за долгосрочные последствия ИИ, покинули компанию. Некоторые утверждают, что Альтман больше озабочен бизнес-аспектами ИИ, чем регулированием технологий.

Планы OpenAI по привлечению инвестиций

В первой половине 2024 года расходы OpenAI на лоббирование в федеральных органах составили $800,000, что значительно выше $260,000 за весь 2023 год. Ранее в этом году Альтман стал членом Совета по безопасности и защите ИИ Министерства внутренней безопасности США. Этот комитет должен консультировать по вопросам использования ИИ в критических системах страны. Намечен значительный раунд инвестиций, который может поднять оценку компании до $150 миллиардов. Согласно недавнему докладу [*Cryptopolitan*](https://www.cryptopolitan.com/openai-aims-for-150-billion-valuation/), OpenAI намерена привлечь $6,5 миллиарда от инвесторов по текущей оценке. Альтман сообщил о переменах на встрече с сотрудниками, но не раскрыл деталей. Он отметил, что компания “выросла слишком крупной” для текущей структуры и готова перейти от некоммерческой модели к традиционной коммерческой к 2025 году.

OpenAI продолжает сталкиваться с критикой и вызовами, однако стремится улучшить свои меры безопасности и привлечь значительные инвестиции для дальнейшего роста и развития.

Комментарии

Последние посты аналитики

Bead Pay и его...

Bead Pay и его роль в развитии криптовалютных платежей

Особенности биржи...

Особенности биржи Upbit и ее влияние на криптовалютный...

Показать ещё

Последние статьи Дапп

Показать ещё

Вам также могут понравиться