출처: 토큰포스트
인공지능 기업 오픈AI(OpenAI)와 앤트로픽(Anthropic)이 최근 미국 AI안전연구소(US AI Safety Institute)에 자사의 주요 신규 AI 모델에 대한 사전 접근권을 제공하기로 합의했다.
1일(현지시간) 코인텔레그래프에 따르면, 오픈AI와 앤트로픽이 미국 정부와 AI 모델 사전 공개 협약을 체결했다. 이번 협약은 상호 안전 우려로 인해 체결된 것으로 알려졌지만, 중대한 안전 문제를 야기할 수 있는 기술 돌파가 발생할 경우 정부의 역할이 정확히 무엇인지는 불분명한 상태다.
오픈AI의 샘 알트만(Sam Altman) CEO 겸 공동 창업자는 소셜 미디어 플랫폼 X에서 이번 협약을 필요한 조치로 언급했다. 그는 “향후 모델에 대한 사전 테스트를 위해 미국 AI안전연구소와 합의에 도달해 기쁘다. 여러 이유로 이것이 국가 차원에서 이루어지는 것이 중요하다고 생각한다. 미국은 계속 선도해야 한다!”고 밝혔다.
오픈AI와 앤트로픽은 모두 인공일반지능(AGI) 개발이라는 동일한 목표를 향해 나아가고 있다. AGI에 대한 정확한 정의에 대해서는 과학적 합의가 없지만, 기본적인 개념은 필요한 자원이 주어진다면 인간이 할 수 있는 모든 것을 수행할 수 있는 AI를 말한다.
두 회사는 각각 인류의 이익을 핵심으로 하는 AGI를 안전하게 만드는 것이 독립적인 목표라고 설명하는 헌장과 미션을 가지고 있다. 두 회사 중 하나 또는 둘 다 성공한다면, 그들은 기계에 인간의 지능을 부여할 수 있는 기술의 사실상 문지기가 될 것이다.
제품 출시 전에 모델을 공개하기로 미국 정부와 협약을 체결함으로써 두 회사는 그 책임을 연방 정부로 넘겼다.
최근 코인텔레그래프의 보도에 따르면, 오픈AI가 기술적 돌파구에 근접했을 수 있다. 회사의 “스트로베리(Strawberry)”와 “오리온(Orion)” 프로젝트는 고급 추론과 AI의 환각 문제를 다루는 새로운 기술을 갖춘 것으로 알려졌다.
더 인포메이션(The Information)의 보고서에 따르면, 미국 정부는 이미 이러한 도구들과 ChatGPT에 구현된 초기 내부 반복을 확인했다.
미국 국립표준기술연구소(NIST)의 블로그 게시물에 따르면, 이번 협약과 그를 둘러싼 안전 지침은 모두 참여 기업들에게 자발적이다.
알트만과 같은 지지자들은 이번 협약을 정부와 기업 세계 모두에게 이익이 될 수 있는 협력의 예로 들고 있다. 그러나 약한 규제의 잠재적으로 우려되는 부작용 중 하나는 투명성 부족이다. 오픈AI나 앤트로픽이 목표를 달성하고 정부가 대중이 알 필요가 없다고 판단하면, 공개를 요구하는 법적 근거가 없어 보인다.