Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2026-02-24 08:44:39

Anthropic обвинила китайские ИИ-лаборатории в «краже» данных

Компания Anthropic обвинила три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — в масштабной кампании по использованию Claude для улучшения собственных моделей. Лаборатории из КНР сгенерировали более 16 млн взаимодействий с чат-ботом через примерно 24 000 мошеннических аккаунтов, нарушив условия использования и региональные ограничения. «Мы с высокой степенью уверенности связали каждую кампанию с конкретной фирмой на основе корреляции IP-адресов, метаданных запросов, инфраструктурных признаков и подтверждений от партнеров в отрасли. Они нацелились на наиболее уникальные возможности Claude: агентное рассуждение, использование инструментов и программирование», — заявили в Anthropic. Фирмы применили дистилляцию — обучение менее мощной нейросети на выводах более сильной. Это широко применяемый и легитимный метод. Ведущие ИИ-лаборатории регулярно дистиллируют собственные модели, чтобы создавать их компактные и дешевые версии для клиентов. «Однако она может применяться и незаконно: конкуренты улучшают возможности за счет чужих LLM за незначительное время и затраты по сравнению с самостоятельной разработкой», — говорится в блоге Anthropic. В компании подчеркнули, что окно для реагирования на подобную «кражу» узкое, а угроза выходит за пределы одной компании или региона. Для ее устранения потребуются быстрые и скоординированные действия со стороны индустрии, регуляторов и мирового ИИ-сообщества. Почему это опасно В Anthropic объяснили риски подобного подхода. Незаконно дистиллированные модели не сохраняют необходимые защитные механизмы — это создает проблемы для национальной безопасности.  Американские компании внедряют системы для препятствия применения искусственного интеллекта в разработке биологического оружия, вредоносных кибератак и иных опасных действий. Созданные через незаконную дистилляцию модели не получают подобных ограничений. Иностранные лаборатории могут интегрировать незащищенные возможности в военные и разведывательные системы, позволяя авторитарным правительствам использовать передовой ИИ для кибератак, дезинформации и массовой слежки, добавили в компании. Способы борьбы Эксперты Anthropic поддержали экспортные ограничения для сохранения лидерства США в ИИ. По их словам, дистилляционные атаки подрывают эти меры, позволяя зарубежным лабораториям сокращать технологический разрыв. «Без прозрачности таких атак быстрый прогресс китайских лабораторий ошибочно трактуется как доказательство неэффективности экспортных ограничений. На практике их достижения во многом зависят от извлечения возможностей американских моделей, а масштабирование такого подхода требует доступа к передовым чипам», — говорится в блоге компании. Anthropic назвала собственные методы борьбы: улучшение системы обнаружения паттернов дистилляции; обмен техническими индикаторами с другими лабораториям и облачными провайдерами; усиление верификации образовательных и исследовательских аккаунтов; применение контрмер, снижающих эффективность незаконной дистилляции. Это не первое подобное обвинение. В январе 2025 года вскоре после взрывного выхода DeepSeek-R1 компанию заподозрили в краже данных у OpenAI. Продолжение борьбы с Пентагоном CEO Anthropic Дарио Амодеи встретится с министром обороны Питом Хегсетом в Пентагоне для обсуждения способов использования ИИ-моделей компании военными. В последнее время между сторонами возникли разногласия — Anthropic выступает против применения искусственного интеллекта для массовой слежки за гражданами США и создания автономного оружия. В Минобороны ясно дали понять, что намерены использовать LLM «для всех законных сценариев» без ограничений. Дошло до того, что в Пентагоне заявили о возможном расторжении договора с Anthropic. ИИ-сканер уязвимостей Акции ведущих публичных компаний в сфере кибербезопасности упали после запуска Anthropic инструмента Claude Code Security — это ИИ-сканер уязвимостей в коде. На сайте компании говорится, что новый сервис «анализирует всю кодовую базу на наличие уязвимостей, проверяет каждую находку для минимизации ложных срабатываний и предлагает исправления». Claude проводит анализ «как опытный исследователь безопасности»: понимает контекст, отслеживает потоки данных, обнаруживает уязвимости. По информации VentureBeat, Claude Opus 4.6 выявила более 500 критических уязвимостей, которые сохранялись десятилетиями, несмотря на проверки экспертов. Пять крупнейший по капитализации американских публичных компаний в области IT-безопасности продемонстрировали двузначное снижение котировок за последние пять дней на фоне появления ИИ-конкурента: Palo Alto Networks — -14%; CrowdStrike — -18%; Fortinet — -12%; Cloudflare — -18%; Zscaler — -19%. График ценообразования акций Palo Alto Networks. Источник: Yahoo Finance. Аналитики Wedbush заявили, что распродажа бумаг связана с опасениями вокруг так называемого AI Ghost Trade. По их мнению, реакция рынка ошибочна, а Palo Alto, CrowdStrike и Zscale докажут свою эффективность в 2026 году. Напомним, в феврале OpenAI совместно с Paradigm представила EVMbench — бенчмарк для оценки способности ИИ-агентов выявлять, исправлять и эксплуатировать бреши в смарт-контрактах.

면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.