챗GPT 로고 [로이터] |
[헤럴드경제=정목희 기자] 미국 대선 등 올해 세계 수십 곳에서 중요한 선거가 예정된 가운데 구글, 오픈AI 등 기업들이 인공지능(AI) 기술을 이용한 가짜뉴스가 선거에 악용되지 않도록 관련 방안을 속속 내놓았다.
15일(현지시간) 오픈AI는 블로그를 통해 자사의 AI 도구가 제공하는 최신 선거 관련 정보에 출처를 표시할 예정이라고 밝혔다.
우선 챗GPT가 제공하는 뉴스·정보와 달리(Dall-E)가 제공하는 이미지가 어디에서, 누구에 의해 만들어졌는지와 같은 출처가 제공된다.
특히 달리가 제공하는 이미지에 대한 검증이 강화된다. AI를 기반으로 얼굴 등을 실제처럼 조작한 ‘딥페이크’에 대한 우려가 커지고 있기 때문이다. 이를 위해 어떤 이미지가 달리에 의해 생성됐는지 여부를 확인할 수 있는 ‘이미지 찾기 도구(image detection tool)’가 출시된다. 아울러 달리가 제공한 이미지에는 이를 확인하는 워터마크가 표시된다.
오픈 AI는 “공정한 선거를 위해 모든 것은 민주적인 과정으로 이뤄져야 한다”며 “우리의 기술이 이 과정을 훼손하는 것을 원치 않는다”고 썼다.
AI 기술을 보유한 다른 기업들도 자사의 기술이 선거에 악용되는 것을 막기 위해 대책을 내놓고 있다.
구글은 지난달 자사 챗봇 ‘바드’가 응답하는 선거 관련 질문을 구글이 선정한 별도 외부 기관을 통해 검증된 후보자, 투표 방법, 장소 등으로 제한했다. 구글은 또 선거 관련 정보는 출처를 반드시 제시하고, AI가 스스로 교차 검증하는 장치도 도입할 계획이라고 밝혔다.
또 AI로 생성된 콘텐츠를 사람들이 바로 식별할 수 있도록 선거 광고가 AI를 사용한 경우 광고주가 이 사실을 눈에 띄게 표시하도록 했다.
페이스북의 모기업 메타도 지난해 11월 선거 운동에 AI를 사용했는지 공개하는 정책을 만들었다. 포토샵으로 유명한 미국 소프트웨어 기업 어도비는 AI로 만들어진 이미지에 워터마크를 사용하기로 했다.