ChatGPT가 전쟁에 투입된다? — OpenAI의 미 국방부 AI 군사 계약, 무엇이 문제인가
2026년 3월 27일 · 테크/국제
2026년 2월 28일, OpenAI CEO 샘 올트먼은 X(구 트위터)에 미국 국방부와 AI 시스템의 군사 기밀 환경 배치에 합의했다고 발표했습니다. 이 발표는 AI 업계에 충격파를 던졌고, 내부 직원의 사임, 대중의 보이콧, 그리고 AI 윤리에 대한 근본적인 질문을 촉발했습니다. 과연 무슨 일이 있었고, 왜 이렇게 논란이 되었을까요?

사진: AI생성
사건의 배경 — Anthropic은 거부했다
이 사건의 시작은 OpenAI의 경쟁사인 Anthropic(Claude를 만든 회사)이 미 국방부의 계약 조건을 거부한 것이었습니다. Anthropic의 CEO 다리오 아모데이는 자사의 AI가 대규모 국내 감시나 자율 무기에 사용되는 것을 허용하는 조건에 동의할 수 없다고 밝혔습니다.
이에 대해 국방부는 Anthropic을 '공급망 위험' 기업으로 지정했고, 트럼프 대통령은 모든 연방 기관에 Anthropic 기술 사용 중단을 지시했습니다. 바로 그 직후, OpenAI가 국방부와 계약을 체결한 것입니다.
OpenAI의 입장 — "같은 레드라인을 지킨다"
OpenAI는 자사도 Anthropic과 같은 '레드라인'을 갖고 있다고 주장했습니다. 구체적으로 세 가지를 제시했는데, 미국 국내 대규모 감시에 사용하지 않을 것, 자율 무기 시스템에 직접 활용하지 않을 것, 그리고 사회 신용 점수 같은 고위험 자동 의사결정 시스템에 쓰지 않을 것이었습니다.
올트먼은 미국 군대가 강력한 AI 모델을 필요로 하며, 안전 장치를 갖춘 기업이 참여하는 것이 아예 참여하지 않는 것보다 낫다는 논리를 펼쳤습니다. 참여를 거부하면 안전 기준이 낮은 다른 기업이 그 자리를 채울 뿐이라는 것이었습니다.
비판 — "기회주의적이고 서툴렀다"
그러나 비판은 거셌습니다. 올트먼 자신도 계약 발표가 급히 이뤄졌고, 타이밍이 나빴다는 점을 인정했습니다. 그는 공개 서한에서 이 거래가 기회주의적으로 보였을 수 있다고 시인했습니다.
외부 전문가들은 계약서 문구가 의도적으로 모호하게 작성되었고, 여러 정보기관이 법적으로 감시를 할 수 있는 여지가 남아 있다고 지적했습니다. MIT 테크놀로지 리뷰는 OpenAI가 Anthropic이 추구한 '도덕적 경계선' 대신 '법적으로 더 부드러운 선'에서 타협했다고 분석했습니다. 핵심 비판은 이런 것이었습니다. 정부가 법을 지킬 것이라는 가정만으로는 충분한 보호 장치가 될 수 없다는 것이었습니다.
내부 반발 — 직원 사임과 시위
계약 발표 후 OpenAI 내부에서도 강한 반발이 일었습니다. 샌프란시스코 사옥 앞 보도에는 활동가들이 분필로 "당신들의 레드라인은 어디에 있나?", "목소리를 내야 한다"는 메시지를 적었고, 이 감정은 내부 직원들 사이에서도 공유되었다고 보도되었습니다.
3월 7일에는 OpenAI 로보틱스 부문의 핵심 인사인 케이틀린 칼리노우스키가 원칙에 따라 사임했습니다. 그녀는 사회적 발언을 통해, 사법적 감독 없는 미국인 감시와 인간 승인 없는 자율 살상 무기는 이 거래 전에 더 충분한 숙고가 필요한 문제였다고 밝혔습니다.
수정된 계약 — 그래도 의문은 남는다
거센 비판에 직면한 올트먼은 3월 3일 계약을 수정했습니다. 수정된 합의서에는 AI 시스템이 미국 시민과 국적자에 대한 국내 감시에 의도적으로 사용되어서는 안 된다는 문구가 추가되었습니다. 또한 NSA 등 정보기관에서는 OpenAI 도구를 사용하지 않을 것이라는 조항도 포함되었습니다.
하지만 전체 계약서 원문은 공개되지 않았고, 이로 인해 의혹은 완전히 해소되지 못했습니다. 한 정책 전문가는 OpenAI가 계약 문구가 유리할 때만 공개하고, 핵심 조항은 비공개로 유지하고 있다며, 해당 국내 감시 금지 조항이 실제로 존재하는지 의심을 표했습니다.
이란 전쟁과 맞물린 시점
이 사건이 더욱 민감하게 받아들여진 이유 중 하나는 타이밍입니다. OpenAI의 계약 발표일인 2월 28일은 바로 미국과 이스라엘이 이란을 공습한 날이기도 합니다. 미 국방부가 이란 전쟁이라는 실제 군사 작전을 수행하는 와중에 AI 기업과 군사 계약을 체결한 것이어서, AI 기술이 전쟁에 직접적으로 활용될 수 있다는 우려가 증폭되었습니다.
또한 이전에 Anthropic의 Claude AI가 미군의 베네수엘라 대통령 체포 작전에 사용된 것이 밝혀지면서, AI의 군사적 활용이 이미 현실화되고 있다는 사실도 논란에 불을 지폈습니다.
남은 질문 — AI는 전쟁에서 어디까지 허용되어야 하나
이 사건은 AI 기술의 군사적 활용에 대한 근본적인 질문을 던집니다. 안전 장치를 갖춘 기업이 참여하는 것이 최선인지, 아니면 군사 분야 자체에 대한 참여를 거부하는 것이 옳은지에 대한 논쟁은 쉽게 결론이 나지 않을 것입니다.
올트먼의 말처럼, 이 결정이 업계 전체의 긴장 완화로 이어지면 현명한 선택이 될 수도 있고, 그렇지 않다면 AI 역사에서 '급하고 부주의한 결정'으로 기록될 수도 있습니다. 확실한 것은 AI와 국방의 관계가 이제 더 이상 먼 미래의 이야기가 아니라, 바로 지금 벌어지고 있는 현실이라는 점입니다.
• 2026.02.28 — Anthropic, 국방부 계약 조건 거부 → 공급망 위험 지정
• 2026.02.28 — 같은 날 OpenAI, 국방부와 2억 달러 규모 계약 발표
• 2026.03.01 — 올트먼 "계약이 서두른 것이었다" 인정
• 2026.03.03 — OpenAI, 국내 감시 금지 문구 추가 등 계약 수정
• 2026.03.04 — 직원들 내부 반발, CNN 등 보도
• 2026.03.07 — 로보틱스 부문 핵심 인사 케이틀린 칼리노우스키 사임
본 글은 공개된 언론 보도(NPR, CNN, CNBC, MIT Technology Review, Al Jazeera, TechCrunch 등)를 바탕으로 정리한 것이며, 특정 기업이나 정치적 입장을 대변하지 않습니다.
OpenAI 국방부AI계약 AI윤리 Anthropic AI군사활용
'뉴스' 카테고리의 다른 글
| "2주 만에 나라 하나 분량" — 이란 전쟁이 뿜어낸 탄소, 지구온난화를 얼마나 앞당기고 있나 (0) | 2026.03.27 |
|---|---|
| KF-21 보라매, 대당 1,200억 원은 비싼 걸까? — 가격의 비밀과 경쟁기종 비교까지 총정리 (0) | 2026.03.27 |
| 계란 담합하면 설립 허가 취소? — 정부, 중동전쟁 물가 특별관리품목 43개로 대폭 확대 (0) | 2026.03.27 |
| 드디어 기름값 2000원 돌파 — 2차 석유 최고가격제, 우리 지갑에 미치는 영향은? (0) | 2026.03.27 |
| "25년 꿈이 드디어 날았다" — KF-21 보라매 양산 1호기, 출고 현장의 감동 (0) | 2026.03.26 |