“법률전문가 대비 정확도 26% 높아”
지속 가능한 AI 개발을 위한 노력 알려
![]() |
LG AI연구원 [LG 제공] |
[헤럴드경제=김민지 기자] LG AI연구원이 지난 10일(현지시간)부터 이틀간 프랑스 파리 그랑 팔레에서 열리는 ‘AI 행동 정상회의(AI Action Summit)’에 참가했다고 12일 밝혔다. ‘AI 행동 정상회의’는 세계 100여 개 국가 정상과 기업, 학계 주요 인사들이 참여해 공공의 이익을 위한 AI, AI가 환경에 미치는 영향 등 AI의 잠재성과 위험을 균형감 있게 논의하는 자리다.
LG AI연구원은 정상회의에서 데이터의 신뢰성을 높이는 AI 기술과 모두가 고르게 AI 혜택을 누릴 수 있는 실천 방안 모색 등 지속 가능한 AI 개발을 위한 기업의 역할과 노력에 대해 알렸다.
대표적으로 지난해에 이어 발간한 ‘AI 윤리 책무성 보고서’를 통해 ‘책임 있는 AI’와 ‘포용적 AI’ 실현을 위한 LG의 구체적인 노력을 소개했다.
LG AI연구원은 AI 연구개발 과정에서 발생할 수 있는 잠재적 위험을 사전에 파악하고 개선하기 위해 진행 중인 모든 연구 과제를 대상으로 AI 윤리 영향 평가를 의무화했다. 그 결과 총 70개 과제에서 229건의 잠재적 위험을 식별해 개선했다.
특히, ‘모든 문제는 데이터 문제로부터 시작된다’는 인식 아래 AI 모델이 학습하는 데이터의 위험을 자동으로 분석하고 위험 등급을 평가하는 ‘데이터 컴플라이언스 에이전트(Data Compliance Agent)’를 개발했다. 에이전트의 법적 안정성을 검토한 결과, 법률 전문가와 비교해 정확도는 26% 우위에 있고, 속도는 45배 높으며 비용은 0.1% 수준으로 낮췄다고 설명했다.
LG AI연구원은 대규모 라이선스 검토를 진행해야 하는 산업 현장과 연구 기관 그리고 법률 지원 조직에 ‘데이터 컴플라이언스 에이전트’를 확대 적용하고, 글로벌 표준 기술로 자리 잡을 수 있도록 글로벌 법률 전문가들과 협력을 강화한다는 계획이다.
배경훈 LG AI연구원장은 보고서 서문을 통해 “AI 기술이 사회에 미치는 영향력이 커질수록 책무성은 더욱 중요해지고 있다”며 “LG AI연구원은 모든 연구개발 과제에 AI 윤리 영향 평가를 의무화해 잠재적 위험을 조기에 발견하고 개선했으며, 엄격한 데이터 컴플라이언스 체계를 구축해 신뢰할 수 있는 AI 개발의 토대를 마련했다”고 강조했다. 이어 “신뢰할 수 있는 AI 기술력 확보를 넘어, AI 기술의 혜택이 사회 구성원 모두에게 고르게 돌아갈 수 있는 포용적 AI 생태계를 만드는 데 기여하겠다”고 말했다.
LG AI연구원은 ‘파리 AI 행동 정상회의’의 일환으로 유네스코(UNESCO)와 함께 ‘세상을 위한 AI’를 주제의 행사를 진행했다. 가브리엘라 라모스 유네스코 인문사회과학 사무총장보를 비롯해 각국의 장관, 기업 대표, 정책 입안자 등 300여 명이 참석했다.
한편, LG AI연구원이 지난해 12월 오픈소스로 공개한 ‘엑사원(EXAONE) 3.5’ 32B 모델이 최근 국가와 기업별 AI 경쟁력 척도에 활용하는 에포크(Epoch) AI의 주목할 만한 AI 모델(Notable AI Model) 리스트에 등재됐다. 한국 모델이 등재된 것은 2년 만이다.