Американский инвестиционный банк Goldman Sachs ограничил доступ своих сотрудников в Гонконге к нейросетям компании Anthropic. По информации источников Reuters и Financial Times, модель Claude стала недоступна на внутренней платформе банка в последние несколько недель, хотя ранее персонал финансовой организации мог свободно использовать ее в работе.

Решение о блокировке инструмента было принято после консультаций с разработчиком и последующего пересмотра условий контракта. Руководство банка пришло к выводу, что нынешнее соглашение с Anthropic не подразумевает возможности использования ее программных продуктов сотрудниками гонконгского подразделения. При этом доступ к другим популярным моделям, таким как Gemini от Google и ChatGPT от OpenAI, на внутренних ресурсах банка сохраняется.
Ограничения вводятся на фоне общей неопределенности в вопросе доступности американских технологий искусственного интеллекта в регионе. Официально Anthropic не включает Гонконг в список рынков, где ее API и чат-бот Claude доступны пользователям. Представители компании подтвердили, что официально работа сервиса в этой юрисдикции никогда не поддерживалась, однако отказались комментировать конкретные договоренности с Goldman Sachs.
Ситуация отражает растущую обеспокоенность мировых финансовых институтов и регуляторов рисками, связанными с информационной безопасностью и защитой данных. Ранее Управление денежного обращения Гонконга (HKMA) сообщало, что ряд кредитных организаций рассматривает возможность введения дополнительных мер защиты из-за угроз кибербезопасности, которые несут в себе современные модели машинного обучения.
Дополнительным фактором выступает усиливающееся технологическое соперничество между США и Китаем. Несмотря на то что в материковом Китае доступ к западным нейросетям официально закрыт, в Гонконге ситуация долгое время оставалась неопределенной и зависела от политики самих разработчиков. В 2024 году компания OpenAI уже заблокировала трафик из Китая к своему программному интерфейсу, чтобы исключить возможность использования своих наработок конкурентами для обучения собственных моделей.