출처: 토큰포스트
최근 AI가 소프트웨어 개발을 혁신적으로 변화시키면서 기업들이 AI 코드 생성 도구를 활용하는 사례가 급증하고 있다. 전문가들은 향후 6개월 내 전체 코드의 90%가 AI에 의해 작성될 가능성이 높다고 전망한다. 그러나 AI가 생성한 코드의 품질과 보안, 컴플라이언스 문제를 어떻게 관리할지가 기업의 핵심 과제로 떠오르고 있다.
기존 소프트웨어 개발 과정에서는 엄격한 코드 검토와 모니터링이 필수적이었다. 반면, AI 기반 코드 생성 시스템은 이러한 통제 구조가 상대적으로 덜 적용될 위험이 크다. 이에 따라, AI 생성 코드의 원천을 추적하고 검증할 수 있는 ‘소스 코드 분석(SCA)’ 도구의 필요성이 높아지고 있다. 현재 소나(Sonar), 엔도어 랩스(Endor Labs), 소나타입(Sonatype)과 같은 기업들이 AI 코드 분석 기능을 도입하며, AI가 만든 코드의 보안성과 신뢰도를 높이는 방안을 모색하고 있다.
AI가 생성한 코드의 문제점은 단순한 버그를 넘어 보안과 안정성 문제로 확산될 수 있다. 금융 서비스 업체의 최고기술책임자(CTO)는 “AI가 생성한 코드로 인해 매주 한 차례씩 시스템 장애가 발생하고 있다”고 토로했다. 이처럼 AI 코드에 대한 책임 의식이 부족하거나 코드 검토 과정이 미흡하면 치명적인 오류가 발생할 가능성이 크다는 점이 지적되고 있다. 특히 AI 코드 생성기가 복잡한 코드 구조를 이해하지 못하거나, 기존 코드와의 ‘기술 부채’를 제대로 반영하지 못하는 문제가 빈번하게 발생하고 있다.
소나타입의 최고제품개발책임자(CPO) 미첼 존슨은 “AI가 유용한 도구이지만, 보안과 품질 관리 측면에서 인간의 판단을 대체할 수는 없다”고 강조했다. 그는 AI 코드가 오픈소스 데이터셋을 기반으로 학습되기 때문에 보안 취약점이 포함될 가능성이 높다고 지적하며, AI가 생성한 코드도 철저한 검토 절차를 거쳐야 한다고 덧붙였다.
한편, AI 코드 생성 모델의 출처에 따른 보안 리스크도 눈여겨볼 필요가 있다. 엔도어 랩스의 최고정보보호책임자(CISO) 칼 매트슨은 “오픈소스 AI 모델을 사용할 경우 보안 취약점이 노출될 위험이 크지만, 이를 적절히 검토하고 관리하면 유용하게 활용할 수 있다”고 설명했다. 엔도어 랩스는 AI 코드의 출처를 분석하고 보안 리스크를 평가할 수 있는 솔루션을 제공하며, AI 모델의 운영 보안성과 업데이트 주기를 추적하는 방안을 제안하고 있다.
기업들이 AI 코드의 위험을 줄이기 위해 도입할 수 있는 주요 전략으로는 ▲코드 생성기의 사용 범위를 명확히 정의하고 검토 절차를 강화하는 것 ▲대규모 코드베이스에서 AI 코드가 불러올 수 있는 의도치 않은 오류를 사전에 차단하는 접근법 ▲AI가 생성한 코드의 구조적 결함을 자동으로 확인할 수 있는 모니터링 시스템 구축 ▲AI 도구 사용에 대한 책임을 개발자들에게 부여하는 시스템 마련 등이 제시되고 있다.
AI 기반 코드 생성이 소프트웨어 개발 프로세스에서 필수적인 역할을 맡을 가능성이 커지는 만큼, 기업들은 이에 대한 철저한 평가와 대비책을 마련해야 한다. 특히 AI가 생성한 코드가 품질 문제를 야기할 경우 기업의 핵심 시스템이 심각한 장애를 겪을 수 있다는 점을 감안할 때, ‘AI 코드 검증과 관리’는 이제 선택이 아닌 필수가 되고 있다.