출처: 토큰포스트
OpenAI의 얼라인먼트 책임자이자 핵심 안전 책임자였던 얀 라이크가 사임했다. 라이크는 안전보다 신제품 개발에 우선순위를 두는 회사의 접근 방식을 비판하며 5월 17일 사임했다.
20일(현지시간) 코인텔레그래프에 따르면 OpenAI는 최근 내부 혼란에 직면했다. 전 얼라인먼트 책임자이자 핵심 안전 책임자였던 얀 라이크가 5월 17일 사임한 후 회사 경영진과의 근본적인 의견 불일치가 원인으로 작용했다. 라이크는 안전에 대한 접근 방식에 대한 근본적인 불일치로 인해 사임했다고 밝혔다. 그는 OpenAI가 엄격한 안전 기준을 유지하는 것보다 신제품 개발에 우선순위를 두고 있다고 비판했다. 또한 회사의 안전 문화가 신제품 출시에 대한 흥분으로 인해 뒷전으로 밀려났다고 주장했다.
라이크의 사임과 그의 비판에 대해 OpenAI의 사장인 그렉 브록맨과 CEO인 샘 알트먼은 X.com을 통해 이 상황을 공개적으로 언급했다. 브록맨은 라이크의 공헌에 감사를 표하면서도 OpenAI가 안전을 소홀히 했다는 주장에 대해서는 반박했다.
그는 회사의 안전을 위한 세 가지 전략을 설명했다.
브록맨은 첫째, OpenAI가 인공 일반 인공지능(AGI)의 위험과 기회를 적극적으로 강조해 왔다고 설명했다. 그는 이러한 주장이 널리 받아들여지기 전부터 OpenAI는 AGI에 대한 국제적인 거버넌스를 옹호해 왔다고 덧붙였다. 둘째, OpenAI가 점점 더 발전하는 AI 시스템의 안전한 배포를 위해 필요한 기반을 구축하고 있다고 전했다. 셋째, 앞으로의 안전 노력은 훨씬 더 어려울 것이라고 강조했다. 그는 각각의 새로운 AI 모델의 요구 사항을 충족하기 위해 안전 조치를 지속적으로 향상시키는 것이 중요하다고 설명했다.
샘 알트먼 CEO는 짧은 포스팅을 통해 브록먼의 의견에 동조했다. 그는 라이크의 우려를 인정하고 안전 조치를 개선하기 위한 회사의 노력을 확인했다. 알트먼은 “그의 말이 맞다”며 앞으로 더 자세한 내용을 공유하겠다고 약속했다. 또한 “우리는 할 일이 더 많으며 이를 위해 최선을 다하고 있다”고 덧붙였다.
OpenAI가 이러한 내부 과제를 해결해 나가는 과정에서 리더의 공개 성명은 AI 개발에서 혁신과 안전의 중요한 필요성 사이의 균형을 맞추는 데 새로운 초점을 맞추고 있음을 시사한다. 회사가 신제품 출시와 안전 기준 사이에서 균형을 잡기 위해 노력하고 있다는 점에서 앞으로의 행보가 주목된다.