
정부가 권고한 가시적 워터마크는 단어 그대로 사람이 눈으로 볼 수 있는 워터마크를 디지털 콘텐츠에 삽입하는 것을 의미한다. 기존에도 저작권이 있는 이미지 위에 도용을 막기 위해 회사 이름이나 로고를 넣는 방식의 워터마크가 쓰였다. 오픈AI의 달리(Dall-e)나 SK텔레콤의 에이닷 포토 등에서 이미지를 만들면 한쪽 구석에 AI가 제작했다는 사실을 알려주는 문구나 서비스 로고 등을 볼 수 있다.
이 방법은 만들기 쉽고 이용자도 AI 생성 여부를 쉽게 확인할 수 있다. 하지만 무력화하는 것도 간단하다. 구석에 로고가 있을 경우 이미지 일부를 잘라내면 되고, 화면 위에 이미지를 덮더라도 간단한 프로그램으로 삭제할 수 있다.
이미지나 영상은 물론 생성 AI가 만든 텍스트에 대한 워터마크도 연구되고 있다. AI가 텍스트를 만들 때 특정 단어의 빈도나 배열하는 규칙을 정해 AI 생성물을 알아채는 방식이다. 하지만 약간의 수정만으로도 무력화할 수 있어 이미지, 영상 등과 비교해 실용성이 떨어진다. 실제로 오픈AI는 올해 초 챗GPT가 만든 텍스트를 구분하는 AI 서비스를 내놨지만 낮은 탐지 확률을 개선하지 못하고 지난 7월 서비스를 중단했다.
최근에는 AI가 자신의 콘텐츠를 학습할 수 없도록 방지하는 기술도 나왔다. 미국 시카고대 연구진이 최근 공개한 ‘나이트셰이드’는 이미지에 ‘오염된 학습 데이터’를 주입할 수 있다. 강아지가 그려진 사진에 고양이라는 데이터를 넣는 식이다.
이런 이미지를 학습한 AI에 강아지를 그려달라고 하면 고양이와 강아지가 섞인 이미지를 만들게 된다. 무단으로 이미지를 가져다 쓰면 AI의 학습 알고리즘 전체가 망가진다.
업계에선 워터마크가 생성 AI의 부작용을 원천 방지할 수는 없을 것으로 보고 있다. 바이러스와 백신의 관계처럼 워터마크를 무력화하기 위한 기술이 끊임없이 나올 것이기 때문이다. 한 업계 관계자는 “문에 자물쇠를 채우더라도 도둑을 완전히 막을 수 없지만, 대부분 범죄는 방지할 수 있다”며 “AI의 부작용을 막는 최소한의 안전장치 역할을 할 것”이라고 말했다.
이승우 기자 leeswoo@hankyung.com