힌턴 교수는 10일 니혼게이자이신문에 보도된 인터뷰에서 이처럼 밝히면서 AI의 위험성을 다시 경고했다.
그는 인류를 위협할 존재로 AI를 보는 이유와 관련해 “AI에게 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다”며 “예를 들어 AI에게 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고서 실행에 옮길 위험성이 걱정된다”고 말했다.
앞으로는 서로 다른 AI간에 경쟁하면서 데이터센터 쟁탈전이 벌어질 수도 있다고 우려했다.
제프리 힌턴 토론토대 명예교수[로이터] |
다만 그는 “누구도 AI가 지배하는 미래를 원하지 않는다”며 “그 사실이 각국이 AI 병기 규제를 향해 보조를 맞추는 토대가 될 것”이라고 덧붙였다.
힌턴 교수는 “생성형 AI의 기반인 거대 언어 모델은 우리와 마찬가지로 말을 이해하고 있다고 생각한다”고 밝혔다.
그러면서 자신은 AI가 농담을 이해하는지를 판단의 기준으로 삼는다면서 2022년 구글이 개발한 언어모델(PaLM)에 의한 챗봇을 상대로 농담을 설명해달라고 했을 때 챗봇은 그 농담이 왜 재미있는지 모두 설명했다고 전했다.
그는 이와 관련해 “철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장이 있지만 그건 틀렸다”며 “언어는 태어난 뒤에 학습하는 후천적인 것이라고 생각한다”고 설명했다.
또 “주관적인 경험이라는 관점에서 보면 AI는 인간과 같은 감각도 가질 수 있다고 생각한다”고 덧붙였다.
힌턴 교수는 딥러닝 기술을 개척해 인공지능 대부로 불리는 전문가다. 그는 토론토대 교수 시절 창업한 AI업체 ‘DNN리서치’가 2013년 구글에 인수된 뒤 구글 소속으로 연구 활동을 계속하다가 작년 4월 AI의 위험성을 알리기 위해 사표를 낸 것으로 알려져 있다.
그는 사표를 낸 뒤 캐나다에서 살면서 AI의 위험성에 대해 적극적으로 얘기하고 있다.
닛케이는 “힌턴 교수가 AI가 인류를 지배할 것이라고 예언하는 것은 아니지만 미래는 불확실하다는 전제에서 장기적인 위험성을 호소하고 있다”며 “그의 경고를 정면으로 받아들이고 논의할 필요가 있다”고 소개했다.
최상현 기자/bonsang@heraldcorp.com