AI 추천 펀드, 사고나면 누구 책임?… 당국 기준 만든다

[헤럴드경제=김성훈 기자] 인공지능(AI)이 소비자에게 추천하고, 자산을 운용한 사모펀드에서 환매중단 사태가 발생한다면 누구에게 책임을 물어야 할까? 4차 산업혁명으로 금융분야도 AI와의 융합 물결이 거세지고 있는 가운데, 금융당국과 전문가들이 이같은 문제를 고민하고 나섰다.

금융위원회는 16일 AI전문기업·핀테크, 금융사, 유관기관, 학계 등이 참여하는 ‘금융분야 AI 활성화 워킹그룹’ 첫 회의를 열었다. 14일 발표된 ‘한국판 뉴딜’에 따라 금융분야에서도 AI를 접목하기 위해 인프라와 규제 체계를 정립하려는 것이다. 워킹그룹은 연말까지 결과를 내놓을 방침이다.

금융은 신용평가, 여신심사, 보험인수, 자산운용 등에서 데이터 활용이 활발해 AI 도입의 효과가 클 것으로 예상되는 분야다. AI로 인해 금융서비스의 비용이 낮아지고 보다 정교한 심사가 가능할 것으로 기대된다.

[이미지=금융분야 AI 테스트베드 구조도. AI 금융서비스를 사전에 테스트하고 검증할 수 있는 환경을 지원한다.]

당국은 금융분야에서 AI가 더 활성화될 수 있도록 워킹그룹에서의 논의를 통해 규제와 인프라를 정비할 방침이다. AI 금융서비스 활성화를 저해하는 규제를 점검해 개선 방안을 도출하고, AI 금융서비스 개발이 촉진될 수 있도록 실무 프로세스 가이드라인도 마련할 방침이다. AI 개발에 필요한 데이터를 갖춘 ‘금융분야 AI 데이터 라이브러리’(가칭)를 구축해 업체들이 활용할 수 있도록 하고, AI 금융서비스를 사전에 테스트하고 검증할 수 있는 테스트베드도 구축해 연구개발을 지원한다.

다만 당국이 고민하는 지점은 AI가 업무처리를 잘못하는 등의 문제로 사고가 날 경우 책임 주체와 구제 절차 등을 어떻게 할 것인가 하는 문제다. 자율주행차도 교통사고가 날 경우 누가 책임을 져야 하느냐 하는 법적 문제가 완전자율주행차의 도입을 가로막는 주요 이슈다. 이에 당국은 AI로 인한 사고 발생시 처리방안을 담은 가이드라인을 마련하고 법제화할 방침이다. 특히 AI가 도출한 결과에 대해 객관적으로 설명이 가능한 AI’(XAI, eXplainable AI)에 대한 기준을 정립할 방침이다. 또 ‘금융분야 AI 윤리 가이드라인’을 만들어 적법성·공정성 등 윤리 원칙을 담을 계획이다.

paq@heraldcorp.com

Print Friendly