“통제 못하는 무기 들인 트럼프”… 기밀 계약까지 맺으며 ‘집착’, 결국 ‘선 넘었다’

댓글 1

미군 이란 공습 배후에 AI
오픈AI-美 국방부 기밀 계약
AI 판단 실질 통제 불가
무기
미국, 이란 공습에 AI 사용 / 출처 : 연합뉴스·게티이미지뱅크

이란에 대한 미군의 정밀 공습 작전의 배후에는 인공지능이 있었다. 표적 식별부터 타격 시나리오 시뮬레이션까지, 상업용 챗봇으로 시작한 AI가 실전 무기체계의 두뇌로 전환된 순간이었다

미 국방부는 올해 들어 AI의 군사 활용을 전례 없는 속도로 확대하고 있다. 지난 1월 베네수엘라 마두로 대통령 체포 작전에도 앤트로픽의 AI ‘클로드’가 투입됐고, 지난 3일에는 오픈AI가 미 국방부와 기밀 군사 계약 체결을 공식화했다

그러나 전술적 효율성 이면에는 심각한 윤리적 공백이 존재한다. AI가 생성한 타격 목표를 인간이 검증하는 데 걸리는 시간은 이스라엘군 사례에서 확인됐듯 건당 수십 초에 불과하다.

방대한 데이터를 순식간에 처리하는 AI의 판단을 인간이 실질적으로 통제할 수 있는가? 국방 전문가들은 이를 “의미 있는 인간 통제의 유명무실화”라고 지적한다.

2026년 가속화된 AI 실전 배치, 규범은 뒷전

무기
연기 피어오르는 이란 테헤란 / 출처 : 연합뉴스

미 국방부의 AI 전력화는 올해 들어 질적 전환점을 맞았다. 우크라이나 전장에서 팔란티어의 데이터 분석 플랫폼과 현지 ‘델타’ 시스템이 결합하며 표적 식별부터 지휘부 결정까지의 시간을 획기적으로 단축한 것이 계기가 됐다.

이스라엘군은 ‘하브소라’와 ‘라벤더’ 시스템으로 수천 개의 타격 대상을 자동 생성하고 있으며, 이를 검증하는 정보장교 1인당 소요 시간은 수십 초 수준이다.

문제는 이 과정에서 AI의 오탐 가능성이다. 영국 가디언과 이스라엘 탐사매체 ‘+972 매거진’은 익명 소식통을 인용해 AI 모델의 오류율로 인한 민간인 피해 우려를 제기했다.

이스라엘방위군은 “모든 타격 결정은 지휘관이 독립적으로 내린다”고 반박했지만, 건당 수십 초의 검증 시간으로는 AI가 제시한 복잡한 데이터의 정교도를 확인하기 어렵다는 게 전문가들의 지적이다.

‘블랙박스’ 딜레마… 책임은 누구에게

무기
샘 올트먼 오픈AI 최고경영자 / 출처 : 연합뉴스

더 근본적인 문제는 딥러닝 기반 AI의 ‘블랙박스’ 특성이다. 시스템 개발자나 운용 알고리즘이 기밀로 취급되는 상황에서, 오폭 등 예기치 않은 결과가 발생할 경우 법적 책임 소재가 모호해진다.

이 분야의 보안 전문가는 “AI 의사결정 과정을 외부에서 완벽히 추적할 수 없는 구조에서는 국제법상 책임 원칙 적용이 사실상 불가능하다”고 지적한다.

실제로 앤트로픽은 미 국방부의 ‘모든 합법적 용도에 대한 군사 활용 권한 전면 개방’ 요청을 거부하며 “양심상 못 한다”는 입장을 밝혔다.

그러나 오픈AI는 이미 미 국방부와 기밀 네트워크 배포 계약을 체결했고, 앤트로픽의 클로드 역시 개별 사안별 검토를 거쳐 실전에 투입되고 있다.

국제 규범 공백, 한국의 선도적 역할 주목

무기
연기 피어오르는 이란 테헤란 / 출처 : 연합뉴스

국제사회는 뒤늦게 대응에 나서고 있지만, 미 국방부의 즉각적 무기화 속도가 국제 규범 수립 속도를 압도하고 있다.

디지털 정책 전문가는 “전장의 데이터화와 AI 분석 도입은 이미 거스를 수 없는 현실”이라면서도 “알고리즘의 신뢰성을 검증하고 인간의 책임 범위를 명확히 하는 국제적 통제 장치가 조속히 도입돼야 한다”고 강조했다.

AI는 이미 전장에서 인간의 결정을 보조하는 수준을 넘어 주도하는 단계로 진입했다. 문제는 이 과정이 투명한 검증이나 국제적 합의 없이 진행되고 있다는 점이다.

국제 협력 체계가 기술 배포 속도를 따라잡지 못한다면, 인류는 알고리즘에게 전쟁의 주도권을 내어주게 될 것이다.

1
공유

Copyright ⓒ 리포테라. All rights reserved. 무단 전재, 재배포 금지

1