![](https://img.hankyung.com/photo/202310/AA.34932658.1.jpg)
G7 정상은 이날 성명문을 통해 “생성형 AI인 챗GPT 등 첨단 AI의 기회와 변혁 가능성을 강조하며 이와 함께 위험을 관리해 법의 지배와 민주주의 가치를 포함한 공유된 원칙을 지킬 필요성을 인식한다”고 선언했다.
11개 항목은 △AI 제품 배포 전후 내·외부 테스트를 통한 보안 취약점 확인 △안전·보안 평가 보고서 공개 △개인정보보호 및 위험관리 정책 공개 △물리·정보 보안 조치 구현 △워터마크 등으로 AI 생성 콘텐츠 식별 △AI 안전성 연구 투자 △세계적 과제 해결을 위한 AI 시스템 개발 우선순위 지정 △테스트 및 콘텐츠 인증에 대한 국제표준 채택 △지식재산(IP)·개인정보 보호를 위해 시스템으로 유입되는 데이터 제어 등이다.
이번 행동 강령은 구속력은 없지만, 주요 국가가 AI를 관리하는 기준점 역할은 할 수 있다는 게 전문가들의 설명이다. 베라 요우로바 EU 집행위원회 가치·투명성 담당 부집행위원장은 이달 초 일본 교토에서 열린 인터넷 거버넌스 포럼에서 “행동 강령이 안전을 보장하는 강력한 기반이며 규제가 마련될 때까지 가교 구실을 할 것”이라고 말했다.
하지만 작년 11월 오픈AI의 챗GPT를 시작으로 올해 생성 AI 서비스가 우후죽순 등장하면서 위험성 우려가 커지기 시작했다. 특히 올해 5월 미국 국방부 청사에서 폭발이 일어난 가짜 사진이 주가를 출렁이게 하면서 ‘안전한 AI’에 대한 논의가 급물살을 탔다.
한국 정부도 지난달 마련한 ‘디지털 권리장전’을 기반으로 AI의 신뢰성과 안전성을 확보한다는 계획이다. 과학기술정보통신부는 이날 디지털 권리장전의 후속 조치를 논의하기 위한 관계부처 회의를 열었다. 기획재정부, 교육부 등 24개 부처가 참여한 이날 회의에선 범정부 차원의 디지털 심화 대응 정책 추진 계획을 마련하기로 했다. 유엔 차원의 디지털 국제 규범 ‘글로벌 디지털 협약(GDC)’에 디지털 권리장전 내용을 반영하고 다음달 1~2일 영국에서 열리는 AI 안전 정상회의에 참석해 주요국과 디지털 규범·질서에 관한 협력도 강화할 방침이다.
실리콘밸리=최진석 특파원/이승우 기자 iskra@hankyung.com