샘 올트먼 오픈AI 최고경영자(CEO). [AFP] |
[헤럴드경제=이원율 기자]인간이 전쟁을 인공지능(AI)에 맡겨도 되는지를 놓고 논란이 있는 가운데, AI 산업의 스타로 꼽히는 샘 올트먼 오픈AI 최고경영자도 이건 쉽지 않은 문제라고 진단했다.
올트먼은 7일(현지시간) 워싱턴의 싱크탱크 브루킹스연구소가 'AI 시대의 지정학적 변화'를 주제로 한 대담에서 북한이 서울을 기습 공격해 한국이 이를 막으려면 인간보다 대응 속도가 빠른 AI에 기대야 하는지 등에 대해 질문을 받았다.
진행자는 북한이 서울을 향해 군항공기 100대를 출격시키고, 한국이 AI가 통제하는 로봇 무리를 활용해 항공기를 전부 격추해 북한 조종사 100명이 목숨을 잃는 상황을 가정하고 어떤 상황에서 AI에 사람을 죽이는 결정을 맡겨도 되느냐는 취지의 물음을 던졌다.
올트먼은 "항공기가 한국에 접근하고 있고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격 결정을 할 수도 있고 안 할 수도 있지만, 그런 공격이 일어나고 있다고 정말 확신할 수 있는가? 어느 정도로 확실해야 하는가? 예상되는 인명 피해는 얼마인가? 회색 지대의 어느 지점에 선을 그어야 하는가? 정말 (우리가 묻고 따져봐야 할)질문이 많다"고 했다.
이어 "나는 누군가 'AI가 핵무기 발사를 결정할 수 있어야 한다'고 주장하는 일을 들은 바 없다"며 "누가 접근하는 미사일을 요격할 때처럼 정말 빠르게 행동해야 할 때를 AI를 사용해선 안 된다고 주장하는 일도 들은 바 없다. 그런데, 그사이에 이런 지대도 있다"고 했다.
또 이런 내용은 자신의 전문 분야가 아니라고 밝히며 "오픈AI에서 이런 결정을 하지 않아도 되길 바란다"고 덧붙였다.
그는 지정학적 경쟁이 AI산업에 미치는 영향에 대해선 "우리는 매우 분명히 미국과 우리 동맹의 편"이라고 했다.
한편 올트먼과 사티아 나델라(마이크로소프트), 순다르 피차이(구글), 젠슨 황(엔비디아) 등 미국 기술 기업의 최고경영자들은 AI의 안전한 사용을 위해 머리를 맞대기로 했다.
미 국토안보부는 지난달 26일(현지시간) AI의 안전한 사용을 위한 연방 자문기구인 AI 안전보안이사회를 발족하고, 자문위원 22명의 명단을 발표했다.
이 기구 설립은 경제, 공중보건 등 중요 산업이 AI로 인한 위협으로 피해를 당하지 않도록 보호하기 위한 것이라고 미 정부는 밝혔다.