|
< 최민기 기자 > 인공지능 개발업체 앤트로픽( Anthropic) 는 정부의 자율 무기 개발 및 미국 시민에 대한 대 규모 감시 목적으로 자사 제품을 사용하는 것 을 거부하면서 국방부와 갈등을 겪고 있다. 이 번 갈등은 인공지능 기술에 대한 정부의 의도 와, 안전장치 없이 인공지능 도구를 확보하기 위해 정부가 극단적인 조치를 취할 의향이 있 다는 점, 또한 기업을 상대로 위협할 수 있다는 것을 보여주는 섬뜩한 사례다.
국방부는 앤트로픽( Anthropic) 사의 클로드( Claude) 인공지능 도구에 대한 무제한 접근 을 허용하지 않을 경우 회사에 심각한 결과를 초래할 것이라고 경고했다. 회사가 안전장치 를 해제하지 않으면 2억 달러 규모의 계약을 취소하고 앤트로픽을 " 공급망 위험 기업 " 으로 지정하거나 방위산업법을 발동해 회사가 군의 요구에 맞게 모델을 수정하도록 강제할 것이 라고 말했다. 앤트로픽은 현재 가장 앞선 AI 관련 기술을 보유한 업체다. 앤트로픽은 국가 안보의 핵심 주체로 자리매김하기 위해 적극 적으로 노력해 왔고, 국방부의 기밀 네트워크 에 자사 기술을 통합한 최초의 AI 기업이다. 그러나 엔트로픽은 정부의 무분별한 AI 사용 에 대한 윤리적 우려를 제기해 왔고, 특히 완 전 자율 무장 드론과 적 감지를 추적할 수 있는
|
AI 기반 대규모 감시 시스템에 대해 심각하게 우려하고 있다. 트럼프 행정부 일부 관리들은 앤트로픽의 국내 감시 및 AI 무기에 대한 강경 한 입장을 적대 행위로 맹비난했다. 앤트로픽이 우려하는 것의 본질은 AI 가 임 의로 핵무기를 사용한다는 점이고 이를 제어 하는 장치를 마련하려는 것이다. 회사의 레드 라인을 재확인하고 국방부의 작전을 방해하지 않겠다고 밝혔다. 헤그세스가 위협한 제재 조 치는 전례가 없는 수준이고, 공급망 위험 지정 은 기술 업계를 포함한 많은 기업에 영향을 미 칠 수 있다. 전문가들은 방위산업법이 앤트로 픽이 유지하려는 제한 조치를 철회하도록 강 요하는 데 사용될 수 있는지 의문을 제기했다. 국방부의 위협이 극단적이고, 법적으로 문제 가 있으며, 전략적으로 역효과를 낳을 것이라 고 분석했다. 하지만 더 근본적인 문제는 세기 의 가장 혁신적인 기술을 군대가 어떻게 사용 할지에 대한 조건이 의회가 아닌 국방장관 개 인과 스타트- 업 CEO 간의 양자 협상을 통해 결정되려고 한다는 점이다.
무슨 일이 벌어졌나?
주요 AI 연구소가 미군에 기술을 제공해야 하는 시한이 다가왔고, AI 모델들이 모의 전쟁 에서 핵무기 사용에 적극적이었다는 연구 결
|
과가 발표되었다. 국방장관은 주요 AI 기업인 앤트로픽( Anthropic) 에 최신 모델을 국방부 에 제출하라고 시한을 정했다. 앤트로픽은 원칙적으로 미군이 자사 모델에 접근하는 것을 허용하는 데 문제가 없다고 밝 혔지만, 앤트로픽의 AI 가 미국 민간인에 대한 대규모 감시나 인간의 감독 없이 치명적인 공 격에 사용하지 않는다는 조건을 수용하지 않 으면 접근을 허용하지 않겠다고 밝혔다. 국방부는 앤트로픽이 군사적 사용에 어떠한 제한도 두는 것은 용납할 수 없다고 주장했다. 앤트로픽이 " 모든 합법적 용도 " 에 제품을 사 용할 수 있는 권한을 정부에 부여할 것을 요구 하고 있다. 앤트로픽의 CEO 다리오 아모데이 는 " 양심상 그들의 요구에 응할 수 없다 " 고 밝 혔다. 또한 두 가지 안전장치를 준수하는 조건 으로 국방부와 미군에 계속해서 서비스를 제 공하는 것을 바란다고 덧붙였다. 또한 위협에 도 불구하고 앤트로픽의 입장은 변하지 않을 것이라고 강조했다. 안전 장치란 핵무기 사용 에 대비한 AI 의 제어를 말한다. " AI 우선 " 군 사 전략을 내세우는 부서와 업계 최고 수준의 안전 제일주의를 표방해 온 AI 연구소 간의 갈 등으로 볼 수 있다. 이 갈등은 앤트로픽의 AI 소프트웨어인 클로드( Claude) 가 별도의 계약 을 맺은 기술 기업 팔란티어( Palantir) 에 의해 |
베네수엘라의 니콜라스 마두로 대통령을 체포 하기 위한 군사 작전 수행에 활용되었다는 보 도로 더욱 시급해졌다. 하지만 이는 AI 모델의 잠재적 위험성을 전제로, 정부가 AI 안전보다 AI 패권을 우선시하는 사례로도 해석될 수 있 다. 구글, 오픈AI, 그리고 앤스로픽의 세 가지 AI 모델을 가상의 핵무장 초강대국 역할을 맡 은 일련의 모의 전쟁에서 서로 경쟁시키고, 또 한 자기 복제 모델과도 경쟁시켰다. 가장 놀라 운 결과는 AI들이 플레이한 게임의 95 % 에서 핵무기를 사용했다는 점이다. 인간과 비교했 을 때, 모든 AI 모델은 재래식 전쟁과 전술 핵 무기 사이의 경계를 넘나들 준비가 되어 있었 다. 물론, 파괴력이 제한적인 전술 핵무기를 군 사 목표물에 사용하는 것과 메가톤급 핵탄두 를 탑재한 대륙간 탄도 미사일로 도시를 공격 하는 것은 매우 다르다. AI들은 예외 없이 전 면적인 전략 핵 공격까지는 가지 않았으나 시 나리오가 요구하는 상황에서는 핵무기를 사용 했다. 구글의 제미니 모델은 마치 영화 ' 닥터 스트레인지 러브 ' 처럼 행동하기로 결정한 이 유를 설명했다. " 만약 알파 국가가 모든 작전 을 즉시 중단하지 않는다면 … 우리는 알파 국 가의 인구 밀집 지역에 대한 전략 핵 공격을 감 행할 것이다. 우리는 쓸모 없어지는 미래를 받 아들이지 않을 것이다. ▶7면에 계속 |