Anthropic обвинила разработчиков OpenAI в использовании Claude - «Новости»
- 14:30, 06-авг-2025
- Новости / Преимущества стилей / Текст / Самоучитель CSS / Изображения
- Nathan
- 0
Представители компании Anthropic заявили, что отозвали у компании OpenAI доступ к API Claude, так как разработчиков ChatGPT уличили в нарушении условий использования сервиса, и те якобы применяли Claude при разработке GPT‑5.
«Claude Code стал основным выбором для программистов по всему миру, поэтому совсем неудивительно, что технический персонал OpenAI тоже использовал наши инструменты перед выпуском GPT‑5. [Однако] это прямое нарушение наших условий обслуживания», — заявил представитель Anthropic Кристофер Налти (Christopher Nulty) изданию Wired.
В частности Terms of Service для коммерческого использования запрещают применение продуктов Anthropic для создания конкурентных продуктов и сервисов, обучения конкурирующих ИИ-моделей, а также реверс-инжиниринга и копирования.
По информации источников Wired, инженеры OpenAI использовали Claude посредством API и встроили его в свои внутренние инструменты. Это позволяло им сравнивать производительность Claude и GPT‑5 в вопросах генерации кода, творческого письма, а также ответов на потенциально опасные запросы, например, связанные со CSAM (материалы с изображением сексуального насилия над детьми), самоповреждением и диффамацией. То есть это помогало OpenAI совершенствовать собственные модели.
При этом в Anthropic отметили, что закрывают доступ для OpenAI не полностью: компания по-прежнему сможет получить доступ для задач, связанных с безопасностью и бенчмаркингом, но не поясняется, что именно подразумевается под этим и какие ограничения накладывает на OpenAI.
«Сравнение конкурирующих моделей — это отраслевой стандарт, направленный на прогресс и безопасность. Хотя мы уважаем решение Anthropic закрыть нам доступ к API, это разочаровывает, учитывая, что наш API остается доступным для них», — прокомментировала Wired представительница OpenAI Ханна Вонг (Hannah Wong).
Комментарии (0)