Anthropic, 경쟁력 유지를 위해 핵심 안전 서약 폐기
3,800억 달러 가치의 AI 기업 Anthropic은 '책임 있는 확장 정책(Responsible Scaling Policy)'의 핵심 기둥을 공식적으로 포기했습니다. 이 회사는 화요일 블로그 게시물을 통해, 안전 조치가 적절함을 보장할 수 없다면 AI 개발을 중단하겠다는 2023년의 약속을 철회했습니다. 이는 경쟁사들과 차별화했던 '안전 우선' 정체성에서 극적으로 벗어난 조치입니다. 최고과학책임자 재러드 카플란은 "경쟁사들이 빠르게 앞서나가고 있다면" 회사가 일방적으로 개발 중단을 약속할 수 없다고 밝히며, 이념적 순수성보다는 상업적 동력에 초점을 맞춘 전략적 전환을 시사했습니다.
이번 전환은 Anthropic이 연간 매출이 10배 성장하고 있다고 보고하는 등 상당한 상업적 성공을 거둔 이후에 이루어졌습니다. 이 결정은 2024년에 공개 헌장에서 안전성을 덜 강조하도록 사명을 업데이트한 OpenAI와 같은 경쟁사들과 더욱 가깝게 만듭니다. 두 회사 모두 강력한 투자자들의 관심을 활용하기 위해 IPO를 준비하고 있는 것으로 알려졌습니다. Anthropic의 정책 변경은 2020년 CEO 다리오 아모데이(Dario Amodei)가 전 회사가 안전보다 속도를 우선시한다는 우려를 표하며 OpenAI를 떠났을 때 확립된 핵심 원칙을 해체시킵니다.
국방부, 금요일 마감 기한으로 강제 기술 접근 위협
Anthropic의 정책 역전은 미 국방부와의 심각한 분쟁과 동시에 발생했습니다. 화요일 긴장된 회의에서 국방장관 피트 헤그세스(Pete Hegseth)는 CEO 다리오 아모데이에게 최후 통첩을 했습니다. 즉, 금요일까지 군에 Claude AI 모델에 대한 무제한 접근 권한을 부여하지 않으면 가혹한 처벌에 직면할 것이라는 내용이었습니다. 국방부는 냉전 시대 법률인 국방물자생산법(Defense Production Act)을 발동하여 회사에 강제 이행을 요구할 것이라고 위협했습니다. 또한, Anthropic을 '공급망 위험'으로 선언할 수 있다고 경고했으며, 이는 업계 전반에 걸친 계약을 복잡하게 만들 것입니다.
이 갈등은 AI를 **"모든 합법적인 목적"**으로 사용하려는 국방부의 요구가, 자율 무기나 대규모 감시에 기술이 사용되는 것에 반대하는 Anthropic의 명시된 '레드라인'과 충돌하면서 발생했습니다. 위협에도 불구하고 국방부는 가장 민감한 작업에 사용되는 Claude 모델에 대한 의존도를 인정하고 있습니다. 한 국방부 관리는 **"우리가 여전히 이들과 대화하는 유일한 이유는 지금 당장 이들이 필요하기 때문이다"**라고 언급했습니다. 이러한 역학 관계는 마감 기한이 다가옴에 따라 Anthropic을 위태롭지만 강력한 협상 위치에 놓이게 합니다.