본 글은 <인간 없는 전쟁>을 보고 연락주신 언론사와의 인터뷰를 위해 정리한 내용을 다시 브런치에 올린 글입니다. 인용 시 반드시 출처를 밝혀주시기 바랍니다. 그리고 본 글에 사용된 이미지는 제가 정리한 내용을 구글의 notebookLM을 통해 만든 것입니다.
<인간 없는 전쟁>을 쓸 때만 해도 가능성이라고 제시했던 LLM의 전장 활용이 현실이 되고 말았네요. <인간 없는 전쟁> 뒷 이야기가 궁금하시다면 아래 글을 봐주시면 감사하겠습니다.
언론사 인터뷰를 정리한 포스팅은 아래에서 확인 가능합니다. 🙂
>> 한겨레 단독 인터뷰 기사 (+여러 언론 인터뷰)
지난 글에서 에픽 퓨리 작전의 기술적 기반을 살펴보았다. 프로젝트 메이븐이 전장의 모든 데이터를 수집하고, 팔란티어의 온톨로지 아키텍처가 이 데이터에 ‘의미’를 부여하는 과정까지. 신경망은 완성되었다. 그런데 신경망만으로는 부족하다. 수집하고 구조화한 방대한 정보를 바탕으로 실제 추론을 하고, 작전의 방향을 결정하는 ‘두뇌’가 필요하다.
그 두뇌의 이름은 클로드(Claude)였다.
클로드는 앤스로픽(Anthropic)이라는 미국의 AI 기업이 만든 대형 언어 모델(LLM)이다. 챗GPT의 경쟁자로 알려진 바로 그 AI. 우리가 일상에서 “이 이메일 좀 다듬어줘”, “이 자료 요약해줘”라며 가볍게 쓰는 바로 그 종류의 인공지능이 전쟁터에 투입된 것이다. 물론 우리가 쓰는 것과는 완전히 다른 형태로.

군사 작전에 상용 AI를 투입한다는 건 단순한 문제가 아니다. 성능이 아무리 좋아도 보안이 뚫리면 끝이다. 적에게 아군의 작전 계획이 새어 나간다면? 상상만 해도 끔찍한 일이다. 그래서 군사 AI에는 기술적 성능을 넘어 극도로 높은 수준의 보안 인증과 데이터 격리가 요구된다.
앤스로픽은 2025년 4월 팔란티어의 ‘FedStart’ 프로그램에 합류하면서 정부 망 진입의 초석을 다졌다. 이를 통해 클로드는 구글 클라우드와 아마존 웹 서비스(AWS) 환경에서 국방부 영향 수준 5 및 6(DoD Impact Level 5/6), 그리고 FedRAMP High라는 최고 등급의 보안 인증을 획득하게 된다. 좀 복잡한 용어들이 나오지만, 핵심은 이것이다. 클로드는 미국 정부의 기밀(Secret) 수준 네트워크에서 작동할 수 있는 유일한 최첨단 AI 모델이 되었다. 유일하다. 챗GPT도, 제미나이도 들어가지 못하는 곳에 클로드만이 자리를 잡은 것이다.

그리고 중요한 건 클로드가 전장에 투입된 방식이다. 지휘관의 컴퓨터에 챗봇 창이 하나 떠 있고, 거기에 질문을 타이핑하는 모습을 상상했다면 완전히 틀렸다. 클로드는 팔란티어 AIP 시스템 내부의 논리 연산 블록(Logic blocks)에 완전히 이식되어 국방망의 방대한 데이터베이스를 직접 호출하고 연산하는 코어 엔진으로 작동했다. 쉽게 말하면, 챗봇이 아니라 전쟁 시스템의 핵심 두뇌로 심어진 것이다.
클로드가 에픽 퓨리 작전에서 수행한 가장 중요한 역할은 ‘군사 의사결정 과정(MDMP)’의 혁신이었다.
MDMP(Military Decision-Making Process)란 군 지휘관과 참모들이 전장 상황을 분석하고, 목표를 설정한 뒤, 이를 위한 구체적인 작전 계획을 수립하는 과정을 말한다. 쉽게 말해 “적이 여기에 이만큼 있으니, 우리는 이렇게 대응하자”라는 방책(Course of Action, COA)을 만드는 고도의 지적 노동이다.
이 과정이 왜 중요한지 이해하려면 전쟁의 본질을 생각해봐야 한다. 전쟁터에서 완벽한 정보란 존재하지 않는다. 적의 의도는 불명확하고, 상황은 시시각각 변하며, 시간은 늘 부족하다. 이런 불확실성 속에서 최선의 선택지를 만들어내는 것이 참모진의 역할이다. 그런데 인간의 뇌에는 한계가 있다. 군사학적 분석에 따르면, 인간 참모진은 인지적 한계와 시간적 제약으로 인해 통상 2~3개 정도의 방책만을 도출하여 비교 평가하는 것이 한계였다.

바둑을 생각해보면 이해가 쉽다. 프로 바둑 기사도 한 수를 두기 전에 몇 가지 선택지를 머릿속으로 시뮬레이션한다. 아무리 뛰어난 기사라도 동시에 수십 가지 경우의 수를 완벽하게 비교하기는 어렵다. 그런데 알파고는 수천, 수만 가지 경우의 수를 순식간에 계산하고 최적의 수를 찾아낸다. 클로드가 전장에서 한 일이 바로 이것이다. 인간 참모진이 2~3개의 방책을 겨우 짜내는 동안, 클로드는 수십 가지의 대안을 단 몇 초 만에 병렬로 생성하고 분석해냈다.
구체적인 상황을 그려보자. 에픽 퓨리 작전 중 이란 영토 깊숙한 곳에 위치한 지하 탄도미사일 벙커를 타격해야 하는 상황이다. 클로드는 팔란티어의 온톨로지 데이터를 통해 주변 아군 B-2 스텔스 폭격기의 가용성, 기상 조건, 이란 혁명수비대 방공망의 제원, 목표물의 지하 심도 등 모든 변수를 실시간으로 받아들인다. 그 후 다양한 전술적 시나리오를 구성한다.
- “관통 폭탄을 활용한 폭격기 단독 타격.”
- “LUCAS 스웜 드론을 활용한 레이더망 사전 교란 후 타격.”
- “사이버 공격과 병행한 동시다발적 기만 타격.”

클로드는 각 시나리오의 성공 확률, 예상되는 아군 피해, 소모되는 군수 물자량까지 정량적으로 평가하여 지휘관의 대시보드에 최적의 선택지들을 배열했을 것이다. 지휘관은 화면에 나열된 옵션들을 보고 최종 결정만 내리면 된다.
결과적으로 지휘관은 정보의 소음(Noise)을 뚫고, 적이 반응하기도 전에 의사결정을 끝낼 수 있게 되었다. 군사학에서는 이를 ‘OODA 루프’라고 부른다. 관찰(Observe)-방향설정(Orient)-결심(Decide)-행동(Act)의 순환을 적보다 빠르게 돌리는 것이 전술적 우위의 핵심이라는 존 보이드(John R. Boyd) 대령의 이론이다. 클로드는 이 OODA 루프의 회전 속도를 인간이 따라올 수 없는 수준으로 끌어올렸다.
클로드의 역할은 단기적인 전술 타격에만 국한되지 않았다. 더 큰 그림, 즉 전략적 차원의 시나리오 기획에도 깊숙이 관여했다.
전쟁은 단순히 ‘어디를 폭격할 것인가’만의 문제가 아니다. 그 폭격이 상대 국가의 군사력에 어떤 영향을 미치는지, 사회적 안정성은 어떻게 흔들리는지, 경제적으로는 어떤 파급 효과가 생기는지까지 고려해야 한다. 클로드는 게임 이론 및 시뮬레이션 기법을 적용하여, 특정 작전이 목표 국가의 군사력(Power), 사회적 안정성(Stability), 경제적 역량(Wealth) 등에 미칠 다차원적인 영향을 분석했다. 이진법적 선택지에 따른 결과의 분기를 매핑하여, “이 작전을 실행하면 A라는 결과가, 실행하지 않으면 B라는 결과가 예상된다”는 식의 시나리오 트리를 지휘관 앞에 펼쳐놓은 것이다.
에픽 퓨리 작전의 복잡성을 생각해보자. 저비용 자폭 드론, 정밀 유도 미사일, 해군 함대, 스텔스 폭격기, 사이버 부대가 동시에 운용되는 다영역 작전이었다. 이 수많은 변수가 충돌하는 미래 상황을 시뮬레이션하고 사전 대비책을 마련하는 과정에서 클로드의 논리적 추론 능력은 결정적인 역할을 수행했다.

그리고 한 가지 더 주목할 사실. 클로드는 이런 복잡한 시나리오를 JSON과 같은 기계가 바로 읽을 수 있는 포맷으로도, 지휘관이 직관적으로 이해할 수 있는 요약 보고서 형태로도 동시에 변환해낼 수 있다. 기계와 인간, 양쪽 모두가 즉시 활용할 수 있는 형태로 정보를 가공할 수 있다는 뜻이다. 이건 단순한 번역이 아니다. 같은 정보를 받는 쪽의 눈높이에 맞춰 완전히 다른 형태로 재구성하는 것이니까.
실제로 미군은 에픽 퓨리 작전 이전에 이미 클로드를 실전 검증한 바 있다. 베네수엘라의 니콜라스 마두로 대통령을 겨냥한 군사 작전 기획 단계에서 클로드를 활용하여 복합 시나리오 검증 체계를 테스트했다. 에픽 퓨리는 갑자기 등장한 것이 아니었다. 사전에 충분히 리허설을 거친 뒤 실전에 투입된 것이다.
여기까지 정리해보자. 팔란티어의 온톨로지 인프라가 전장의 ‘신경망’이었다면, 클로드는 그 위에서 작동하는 ‘두뇌’였다. 신경망이 전장의 모든 데이터를 수집하고 의미를 부여했고, 두뇌는 그 위에서 인간의 인지적 한계를 뛰어넘는 속도로 최적의 작전 방책을 생성해냈다. 인간 참모가 2~3개의 방책을 짜는 데 몇 시간이 걸리던 것을, AI는 수십 가지를 몇 초 만에 만들어냈다. 전쟁의 속도 자체가 바뀐 것이다.
그런데 여기서 한 가지 불편한 질문이 떠오른다.
이 모든 게 정말 좋기만 한 걸까? AI가 만들어준 선택지를 보고 지휘관이 버튼을 누르는 구조. 그 버튼 하나에 수많은 생명이 걸려있다. 몇 초 만에 결정을 내려야 하는 극도의 시간적 압박 속에서, 인간의 승인 행위는 과연 진정한 ‘판단’일까, 아니면 기계의 지시에 도장을 찍는 ‘고무도장’에 불과한 것일까?
실제로 이 문제는 이론적인 우려에 그치지 않았다. 에픽 퓨리 작전이 한창이던 시기, AI를 만든 앤스로픽과 AI를 쓰는 국방부 사이에 격렬한 충돌이 벌어졌다. ‘우리가 만든 AI를 사람 죽이는 데 쓰지 마라’는 기업과, ‘국가 안보가 기업 윤리보다 우선한다’는 국가 사이의 전쟁 아닌 전쟁이 시작된 것이다. 결국 국방부는 자국 최고의 AI 기업을 ‘공급망 위험’ 요소로 지정하고 국방망에서 퇴출시키겠다는 통보까지 하게 된다.
AI와 윤리, 기업과 국가가 정면으로 충돌한 이 이야기는 이미 이전 글에서 다룬 바 있다.
최재운님의 브런치에 게재한 글을 편집한 뒤 모비인사이드에서 한 번 더 소개합니다.



![[IP 생태계 탐험] AI Everywhere, K-콘텐츠의 대전환 (1)](https://mobiinsidecontent.s3.ap-northeast-2.amazonaws.com/kr/wp-content/uploads/2026/03/25194841/260330_K%EC%BD%98%ED%85%90%EC%B8%A0-%EC%82%B0%EC%97%85_AI_%EC%84%AC%EB%84%A4%EC%9D%BC-218x150.png)
![[오늘의 소마코 콕] 숏폼 영상 자동화! 마케터에게 유용한 AI 툴](https://mobiinsidecontent.s3.ap-northeast-2.amazonaws.com/kr/wp-content/uploads/2026/03/27160055/260330_%EC%88%8F%ED%8F%BC-%EC%98%81%EC%83%81-%EC%9E%90%EB%8F%99%ED%99%94_%EC%84%AC%EB%84%A4%EC%9D%BC-218x150.png)