본문 바로가기

“AI를 보호하는 가장 좋은 방법은 AI 사용”…보안 AI 연합 CoSAI 출범

반응형

“보안에는 공동의 노력이 필요하며, AI를 보호하는 가장 좋은 방법은 AI와 함께 하는 것이다. 디지털 생태계에 안전하게 참여하고 모두를 위해 보안을 유지하려면 개인, 개발자, 기업 모두 공통 보안 표준과 모범 사례를 채택해야 한다. CoSAI는 업계 및 학계와 협력하여 몇 가지 중요한 워크스트림을 통해 주요 AI 보안 문제를 해결할 것이다.”

구글(Google), IBM, 인텔(Intel), 마이크로소프트(Microsoft), 엔비디아(NVIDIA), 페이팔(PayPal)이 프리미어 창립 스폰서로 참여한 CoSAI(Coalition for Secure AI, 보안 AI 연합)가 안전한 AI를 위한 본격적인 행보를 알렸다. 이들 기업 외에도 아마존(Amazon), 앤쓰로픽(Anthropic), 시스코(Cisco), 체인가드(Chainguard), 코피어(Cohere), 젠랩(GenLab), 오픈 AI(OpenAI), 위즈(Wiz)가 창립 스폰서에 이름을 올렸다.


CoSAI는 다양한 이해관계를 가진 기업들이 ‘안전한 AI’라는 공동의 목표를 구현하기 위해, AI 보안 연구에 대한 공동 투자, 보안 전문 지식과 모법 사례 공유, 안전한 AI 개발 및 배포를 위한 기술적인 오픈소스 솔루션 방법론 구축하는 협업 생태계 육성을 목표로 한다. 국제 표준이자 오픈 소스 컨소시엄인 오아시스 오픈(OASIS Open)에서 프로젝트 형식으로 운영한다.

CoSAI는 AI의 빠른 성장에 보조를 맞출 수 있는 보안 프레임워크와 이를 적용한 표준의 필요성이 제기되면서 결성됐다. 2023년 6월 8일 구글이 보안 프레임 워크(Secure AI Framework)를 공개했고, CoSAI의 필요성에 공감한 관련 기업들이 창립 멤버가 되어 연합 결성에 참여했다.

구글이 공식 블로그를 통해 밝힌 CoSAI의 첫번째 주요 분야는 ▶︎AI 시스템을 위한 소프트웨어 공급망 보안 ▶︎변화하는 사이버 보안 환경에 대비한 방어 준비 ▶︎AI 보안 거버넌스 세 가지다. 앞으로 CoSAI는 FMF(Frontier Model Forum) 파트너십 AI(Partnership on AI), OSSF(Open Source Security Foundation) 등과 협력해 책임 있는 AI를 발전시킬 계획이다.

이를 위해 모델 도용, 데이터 오염, 프롬프트 주입, 대규모 남용, 추론 공격과 같은 위험을 완화하는 데 초점을 맞추고 AI 시스템을 안전하게 구축, 통합, 배포 및 운영하는 데 중점을 둘 예정이다. 아울러 AI 시스템의 고전적이고 고유한 위험을 해결하는 포괄적인 보안 대책을 개발하는 것을 목표로 한다.

CoSAI는 “AI에 대한 신뢰를 보장하고 책임 있는 개발을 추진하려면 보안을 최전선에 두고, AI 시스템의 잠재적 취약성을 식별하고 완화하며, 안전한 설계(Secure-by-Design) 시스템을 만드는 방법론을 개발하고 공유하는 것이 중요하다. 앞으로 업계 리더와 전문가의 지원을 바탕으로 AI 보안을 강화하고 전 세계 이해관계자 간의 신뢰를 구축하는 표준화된 관행을 확립하는 데 큰 진전을 이룰 준비가 되어 있다”고 밝혔다.

Syndicated to WWW.CIOKOREA.COM

반응형