🇺🇸🧬 🇨🇳 Три китайски компании за изкуствен интелект са използвали Claude за неправомерно придобиване на способности с цел подобряване на собствените си модели. Това обяви разработчикът на чатбота Anthropic в блог публикация днес, като същевременно аргументира нуждата от експортен контрол върху чиповете.
Съобщението беше предшествано от меморандум на OpenAI по-рано този месец, в който корпорацията предупреди американските законодатели, че китайската компания DeepSeek се е насочила в създателя на ChatGPT и водещите технологични компании в страната, за да репликира модели и да ги използва за собствено обучение.
DeepSeek, Moonshot и MiniMax са генерирали над 16 милиона взаимодействия с Claude, използвайки 24 000 фалшиви акаунта в нарушение на условията за ползване на Anthropic и регионалните ограничения за достъп. Те са приложили техника, известна като „дестилация“, включваща обучение на по-слаб модел върху изходящите данни на по-мощен такъв, уточняват от Anthropic.
„Тези кампании нарастват по интензивност и сложност. Прозорецът за действие е тесен, а заплахата надхвърля пределите на всяка отделна компания или регион.“
От Anthropic алармират, че незаконно „дестилираните“ модели нямат нужните предпазни механизми, което създава значителни рискове за националната сигурност. Ако тези модели станат с отворен код, рискът се мултиплицира, тъй като възможностите им се разпространяват свободно извън контрола на което и да е правителство.
Anthropic, която набра 30 милиарда долара в последния си кръг от инвестиции и сега се оценява на 380 милиарда долара, заяви, че атаките с дестилация подкрепят тезата за експортен контрол: ограниченията за достъп до чипове намаляват както възможностите за директно обучение на модели, така и обхвата на неправомерната дестилация.
Операцията на DeepSeek е била насочена към способностите за разсъждение при различни задачи и създаването на алтернативи без цензура на запитвания, чувствителни към официалните политики, докато стремежът на Moonshot е бил към агентно разсъждение, използване на инструменти, кодиране и анализ на данни, твърдят от Anthropic.
MiniMax е таргетирала агентно програмиране, използване на инструменти и оркестрация, като Anthropic са засекли кампанията, докато тя все още е била активна – преди MiniMax да пусне модела, който е обучавала.
„Когато пуснахме нов модел в активната кампания на MiniMax, те реагираха в рамките на 24 часа, пренасочвайки близо половината от трафика си, за да извлекат възможностите на най-новата ни система“, гласи публикацията.
DeepSeek, Moonshot и MiniMax не отговориха веднага на запитванията за коментар.