OpenAI, 9월까지 “AI 인턴” 이정표 목표
OpenAI는 완전히 자동화된 AI 연구원 구축을 향후 몇 년간의 “북극성” 목표로 설정했습니다. 최근 인터뷰에서 최고 과학자 Jakub Pachocki는 9월까지 “자율 AI 연구 인턴”을 만드는 공격적인 일정을 제시했습니다. 이 초기 시스템은 특정 연구 문제를 독립적으로 해결하도록 설계되었으며, 회사가 2028년에 출시할 계획인 보다 포괄적인 다중 에이전트 연구 시스템의 전조 역할을 합니다. 궁극적인 목표는 수학에서 생물학에 이르기까지 현재 인간의 능력을 넘어서는 크고 복잡한 문제를 해결할 수 있는 AI를 구축하는 것입니다.
우리는 사람들이 하는 것처럼 일관성 있게 무한히 작업할 수 있는 모델을 가질 수 있는 지점에 가까워지고 있다고 생각합니다. 하지만 결국 데이터 센터 안에 전체 연구소가 있는 시점에 도달할 것이라고 생각합니다.
— Jakub Pachocki, OpenAI 최고 과학자.
이 새로운 초점은 코딩 작업을 실행할 수 있는 에이전트 기반 앱인 Codex와 같은 기존 도구의 성공을 기반으로 합니다. OpenAI는 이 기능을 프로그래밍에서 일반 과학 문제 해결로 확장하여 Pachocki가 “경제적으로 변혁적인 기술”이라고 설명하는 것을 만들 계획입니다.
16개월 평균 재직 기간으로 인재 전쟁 심화
OpenAI의 자율 에이전트 추진은 AI 생태계의 중심에 위치시키는 공격적인 인재 확보 전략에 의해 뒷받침됩니다. 데이터에 따르면 회사는 2023년 이후 규모가 4배 증가했으며, 신규 채용의 거의 절반이 Google, Meta, Apple과 같은 거대 기술 기업 출신입니다. 이러한 빠른 확장은 미국 기반 OpenAI 직원의 평균 재직 기간이 16개월에 불과하다는 점에서, 인재가 빠르게 확보되고 성장하는 스타트업 및 벤처 기업 네트워크로 분산되는 역동적인 환경을 나타냅니다. 이러한 높은 이직률 모델은 OpenAI가 광범위한 AI 산업의 중요한 훈련장 역할을 함을 시사합니다.
이 회사의 에이전트 AI에 대한 초점은 바이럴 오픈 소스 AI 에이전트 OpenClaw의 개발자인 Peter Steinberger가 2월에 OpenAI에 합류하면서 더욱 확고해졌습니다. Steinberger의 프로젝트는 일상적인 애플리케이션 전반에 걸쳐 작업을 자동화할 수 있는 AI 에이전트의 강력한 기능을 보여주었습니다. Steinberger와 같은 핵심 인물을 영입함으로써 OpenAI는 야심찬 AI 연구원 프로젝트를 실행하는 데 필요한 전문 지식을 통합하고 있습니다.
“권력 집중”이 장기적인 경제 문제 야기
완전히 자동화된 연구원 개발은 상당한 시장 불확실성을 초래합니다. 이 소식이 AI 중심 기술 주식에는 근본적으로 낙관적이지만, 전체 연구팀의 작업을 수행할 수 있는 AI의 전망은 대규모 노동력 대체에 대한 장기적인 질문을 제기합니다. Pachocki 자신도 이 프로젝트가 “극도로 집중된 권력”을 생성하고 “심각하게 해결되지 않은 질문”을 제기한다고 언급하며 위험을 인정합니다. 그는 대규모 조직의 결과물을 복제할 수 있는 데이터 센터가 단 몇 명의 사람에 의해 관리될 수 있다고 말합니다.
잠재적인 단점을 완화하기 위해 OpenAI는 에이전트의 작업 프로세스를 검토하고 바람직하지 않은 행동을 포착하기 위해 다른 AI 모델을 사용하는 “사고 사슬 모니터링”과 같은 안전 프로토콜을 개발하고 있습니다. 그러나 Pachocki는 이것이 초기 단계일 뿐임을 인정합니다. 투자자들에게 이 프로젝트는 고위험, 고수익 시나리오를 나타냅니다. 기술적 도약은 엄청난 가치를 창출할 수 있지만, 2028년까지 성공적인 배포는 또한 전 세계 경제에 전례 없는 혼란을 초래할 수 있습니다.