테러 온상 비난받는 페북…“AI 활용 테러 콘텐츠와 전쟁”

주요 단어 추적…사전 검열 강화
표현의 자유 침해 등 실효성 의문

‘테러선전의 온상지’라는 비난을 받고 있는 페이스북이 인공지능(AI)을 활용해 테러 콘텐츠와 전쟁에 나서겠다고 선언했다.

뉴욕타임스(NYT)는 15일(현지시간) 페이스북이 AI를 도입해 극단주의자들의 부적합한 게시물을 제재하는 계획을 밝혔다고 보도했다. 페이스북은 사후검열 및 삭제에 치중해 온 콘텐츠 관리에서 나아가 ‘사전단계’ 검열을 강화하는 프로그램을 도입할 계획도 발표했다.

페이스북이 도입하는 AI는 테러 콘텐츠에 사용되는 주요 단어와 문구를 학습해 관련 사이트를 찾아내고 가짜 계정으로 테러선전용 컨텐츠를 유포하는 유저도 같은 방식으로 추적하는 업무 등을 수행하게 된다. 페이스북은 AI의 첫번째 응용프로그램이 포로 참수 장면처럼 잔인한 사진 및 비디오 콘텐츠를 식별해 업로드 단계부터 제재하는 업무를 수행할 것이라고 밝혔다.

다만 현재까진 AI가 단독으로 수행할 수 있는 업무가 제한적이다. 페이스북 글로벌정책 책임자인 모니카 비거트는 “사람이 개입해 콘텐츠의 맥락을 파악할 필요가 있다”고 말했다.

페이스북에 따르면 30개 언어 사용자로 구성된 150명의 전문가가 AI의 검수를 맡는다.

페이스북이 콘텐츠 제재를 위해 AI를 도입하는 이유는 테러 선전의 온상이 되고 있다는 비판을 피하기 위해서다. 페이스북은 극단주의자들의 컨텐츠를 충분히 책임있게 모니터링하지 않는다는 비판을 받아왔다.

특히 테리사 메이 영국 총리는 22명의 사망자가 발생한 멘체스터 아레나 테러 이후 “인터넷이 테러리즘을 양산하는 안전한 공간이 되고 있다”고 비난했다. 메이 총리는 지난달 페이스북을 포함한 인터넷 기업에 보다 강력하게 테러 콘텐츠를 모니터링하고 제재하게 하는 의무를 부과할 것이라고 밝힌 상태다.

그러나 일각에선 이같은 제재가 표현의 자유를 침해한다고 주장한다. 헤이그 반테러리즘 국제센터 연구원인 J.M.버거는 “단순히 ISIS나 알카에다에 대해 이야기하는 것까지 테러리즘에 포함돼 제재받을 수 있다”며 “페이스북같은 기업들이 테러리즘을 어떻게 정의할 것인지가 문제”라고 말했다.

실효성에 대한 의심도 뒤따랐다. 인터넷 인권단체인 전자프런티어재단(EFF)의 질리안 요크는 “테러에 가담하기 어렵게 만들기 위한 방침인지, 단순히 테러리즘과 관련된 게시물 자체를 올리지 못하게 하려는 방침인지 모르겠다”고 꼬집었다.

김유진 기자/[email protected]

Print Friendly