미 국방부 vs 앤트로픽, 군사용 AI 활용 두고 정면충돌
[서울=뉴스닻] 최승림 기자 = 미국 국방부(최근 ‘전쟁부’로 명칭 변경)와 인공지능 기업 앤트로픽(Anthropic) 간 갈등이 격화되고 있다. 앤트로픽은 최대 2억 달러(약 2,600억 원) 규모의 국방 계약을 체결한 기업으로, 자사 AI 모델 ‘클로드(Claude)’의 안전 원칙을 강조해 왔다. 그러나 미 군 당국이 AI 활용 범위를 대폭 확대하려 하면서 양측의 긴장이 수면 위로 떠올랐다.

베네수엘라 작전 보도 후 균열 조짐
갈등은 최근 베네수엘라의 니콜라스 마두로 대통령 체포 작전과 관련해 앤트로픽 기술이 활용됐다는 보도가 나오면서 본격화됐다. 구체적으로 클로드가 어떤 방식으로 쓰였는지는 공개되지 않았지만, 데이터 분석 등 정보 처리에 활용됐을 가능성이 거론된다.
앤트로픽 측은 특정 군사 작전에 자사 AI가 사용됐는지 여부는 확인할 수 없다고 밝혔다. 다만 내부적으로 정책 위반 사례는 발견되지 않았다는 입장이다. 회사는 파트너사 팔란티어(Palantir)와 협력해 기밀 네트워크 환경에서 AI를 제공해 왔다.
“합법적 모든 용도 허용” vs “자체 가드레일 유지”
문제의 핵심은 AI 사용 범위를 둘러싼 철학적 차이에 있다. 국방부는 최근 발표한 새 AI 전략 문서에서, 법적으로 허용되는 한 모든 목적에 AI를 활용할 수 있어야 한다는 방침을 내놨다. 특히 향후 계약에는 기업별 ‘제한 조항(가드레일)’을 제거하겠다고 명시했다.
반면 앤트로픽은 자사 AI가 완전 자율형 살상 무기(사람 개입 없이 공격하는 무기)나 국내 감시에 사용되는 것을 허용하지 않겠다는 원칙을 고수하고 있다. 국방부는 이러한 제한에 불만을 표하며 계약 관계를 재검토 중인 것으로 알려졌다.
안보 협력 확대 속 ‘선’ 긋는 기업
앤트로픽은 국가 안보 분야 협력에 적극적이다. 2025년에는 전직 국방·정보기관 고위 인사들로 구성된 자문위원회를 출범시켰고, 기밀 네트워크에 AI를 탑재한 최초의 ‘프런티어 AI 기업’이라는 점을 강조해 왔다.
다리오 아모데이 CEO 역시 “민주주의 국가가 AI 기반 군사 도구를 갖는 것은 정당하다”면서도, “신중하고 제한된 방식이어야 한다”고 밝힌 바 있다.
전문가들은 이번 갈등이 실제 무기 시스템 적용보다는 ‘이론적 가능성’을 둘러싼 논쟁에 가깝다고 본다. 현재 클로드와 같은 범용 대형 언어모델이 직접 살상 무기에 쓰일 가능성은 낮다는 분석이다. 다만 AI가 군사 전략과 정보 분석에 깊이 관여할수록, 어디까지 허용할 것인가에 대한 기준 설정은 더욱 첨예해질 전망이다.
[저작권자 ⓒ 뉴스닻. 무단전재·재배포 금지]
최승림 기자 (seunglim.choi@newsdot.net)