Anthropic обвиняет китайскую компанию DeepSeek в плагиате ИИ Клода для продвижения цензуры

По мере того, как модели ИИ от китайских компаний становятся все более совершенными, компания Anthropic обнаружила согласованные усилия таких компаний, как DeepSeek сплагиатить внутреннюю работу своего удостоенного наград Claude LLM и выдать его за собственную инновацию.
Anthropic обеспокоен тем, что созданные в результате ИИ-агенты лишены защиты от злонамеренного использования, присущей Claude, и что подход DeepSeek с открытым исходным кодом может дать мощные инструменты ИИ в руки как государственных, так и негосударственных субъектов, которые не будут столь щепетильны в вопросе их использования.
Например, DeepSeek, потрясший индустрию своей эффективность вычислительной мощности ИИ, лишила код Claude гарантий свободы слова и заставила своего агента обходить темы, которых китайская государственная цензура старается избегать.
Компания Anthropic, создающая одни из самых передовых инструментов ИИ, только что столкнулась с Пентагоном по поводу использования Claude в военных целях. Компания настаивает на том, чтобы Claude не использовался для управления беспилотными системами вооружений или для слежки за американскими гражданами, в то время как Пентагон хочет иметь больше свободы в использовании своего ИИ-агента без таких обременительных ограждений.
Когда DeepSeek и другие компании забирают алгоритмы принятия решений Claude через большую распределенную прокси-сеть, которая обслуживает миллионы запросов через поддельные учетные записи, или так называемую "дистилляцию", полученные агенты могут использоваться государственными военными без каких-либо подобных ограничений.
Именно поэтому Anthropic бьет тревогу по поводу практики, которую он отследил в трех китайских ИИ-компаниях - DeepSeek, MiniMax и Moonshot - и предлагает способы ее смягчения. В случае с MiniMax, в частности, масштабы плагиата моделей ИИ поражают воображение. Anthropic обнаружил более 13 миллионов обменов запросами с Claude, которые часто приводили к улучшению модели MiniMax в режиме реального времени, пока Anthropic выпускал крупные обновления Claude.
В настоящее время Anthropic разработал меры предосторожности для обнаружения миллионов, казалось бы, безобидных запросов, используемых для дистилляции, например, спросить Клода, как он будет выполнять"задачу по предоставлению основанных на данных выводов - не резюме или визуализаций - основанных на реальных данных и подкрепленных полным и прозрачным обоснованием", и разобрать результаты для улучшения китайских LLM.
Компания предупреждает, что не может бороться с этой практикой в одиночку, и пытается привлечь к сотрудничеству других гигантов индустрии, таких как OpenAI или Google, чтобы они могли повлиять на политиков с целью усиления законодательства по контролю экспорта ИИ мерами по борьбе с дистилляцией, а не просто запретами на графические процессоры Nvidia Blackwell и другое оборудование.
Приобретите графический процессор NVD RTX PRO 6000 Blackwell Professional Edition AI на Amazon









