생성형 AI 맞닥뜨린 금융업, 위험에 어떻게 대응할까?

2024-02-16     이종현
ⓒ한국딜로이트그룹

- 생성형 AI로 투명성‧책임성‧공정성‧개인정보보호 등 위험들 등장
- 아시아태평양 규제당국, AI에 대한 규제책 고민 중

생성형 인공지능(AI)이 금융산업에 확산되고 있다. 금융회사들이 AI 기술 혁신을 통해 소비자 경험을 강화하고 기업 이익을 확대하기 위해 관련 위험과 규제에 철저히 대응하기 위해 AI 거버넌스 프레임을 구축해야 한다는 목소리가 커지는 중이다.

한국딜로이트그룹은 발간한 ‘아시아태평양 지역의 생성형 AI 적용 및 규제’ 보고서를 통해 오픈AI의 ‘챗GPT’나 구글의 ‘제미나이(구 바드)’ 등 서비스의 등장으로 아시아태평양 규제당국도 대응 중이라고 전했다. 지적재산 침해, 잠재적 편향 등 AI로 인한 여러 위험 요소를 고려하고 기술 혁신을 통한 이익과 소비자 안전 사이의 균형을 찾아야 한다는 것이 보고서에서 일관되게 강조하는 내용이다.

특히 개인정보의 유출, 재정적 위험 등 민감한 잠재 리스크를 가진 금융 서비스의 경우 규제 당국의 관심과 압박이 가시화될 수 있는 만큼 생성형 AI 시대의 금융산업은 중대한 변화와 혼란의 시기를 지나고 있다는 것이 딜로이트의 판단이다.

보고서는 국가별로 AI 관련 위험을 해결하기 위해 취하는 접근방식도 소개했다. 호주의 경우 책임감 있는 AI 솔루션을 안내하기 위한 ‘AI 윤리 프레임워크’를 만들어 AI 시스템 책임자가 시스템의 영향에 대해 책임을 지도록 했다. 일본은 AI 사용에 관한 상위 원칙인 ‘AI 원칙에 대한 거버넌스 지침’을, 대만은 금융기관 AI 사용을 지도하기 위한 ‘금융산업에서 AI 애플리케이션에 대한 핵심 원칙 및 관련 정책’이라는 제안서 초안을 작성한 상태다.

국내에서도 AI를 위한 입법 절차가 이뤄지고 있다. 작년 2월 국회 과학기술정보방송통신위원회 법안소위를 통과한 (가칭)AI기본법이다. 중국, 필리핀, 베트남 등도 AI에 대한 직‧간접적인 입법 절차를 진행 중이다.

딜로이트는 금융업계가 AI 관련 위험을 식별 및 관리하기 위해 ▲향후 규제 준수와 위험 관리 지원을 위한 AI 거버넌스 프레임워크 개발 ▲고객 개인정보 등 데이터 보호 의무 준수 ▲지적 재산의 부주의한 노출이나 저작권 침해를 방지하기 위한 통제장치 구축 ▲생성형 AI 기술 관련 인재 확보 투자 및 기존 임‧직원 대상 AI 기술 교육 제공 등 권고 사항을 제시했다.

가령 보험금을 청구할 때 생성형 AI가 보고서를 생성할 경우 창구 담당자는 생성형 AI가 어떤 절차로 보험금을 산출하는지에 대해 설명하고, 그 처리 결과를 받아들이지 않을 수 있다는 점을 명확히 안내하는 등의 신뢰할 수 있는 AI 프레임워크를 구축해야 한다는 설명이다.

장형수 한국딜로이트그룹 금융산업통합서비스그룹 고객산업 리더는 “생성형AI 도입으로 업무 효율성 향상과 고객경험 최적화와 같은 업무성장동력을 확보하고 경쟁력 우위를 부각하려는 금융회사는 편향성과 지적 재산권 침해, 규제 위험에 직면할 수 있다”며 안전한 AI 활용을 위한 거버넌스 체계 확립의 중요성을 강조했다.

이와 함께 마쓰야마 아키히로 딜로이트 아시아태평양 리스크 자문 리더도 “AI 규제 및 법안은 아직 대부분의 국가에서 개발 또는 시행 초기 단계에 있지만 금융회사는 가능한 한 빠르게 자체 AI 거버넌스 프레임워크를 구축하고 AI 관련 위험에 대응하기 위한 조치를 준비하는 등 신중한 접근 방식이 필요하다”고 주문했다.