'고영향' 인공지능 해당 여부·사업자 책무 등 규제, 산업 발전 걸림돌

금융권 AI 플랫폼 개요 (사진 = 금융위원회 제공)
금융권 AI 플랫폼 개요 (사진 = 금융위원회 제공)

유럽연합에 이어 세계 두 번째로 제정된 AI 일반법인 인공지능기본법이 내년 시행을 앞둔 가운데, 하위 법령이 공개됐다. 그러나 금융산업에 적용할 때 아직 그 기준이나 범위가 모호한 부분이 많아 외려 산업 발전의 발목을 잡는 게 아니냐는 지적이 제기된다.

지난해 12월 국회 본회의를 통과한 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’은 유럽 AI Act에 이어 세계적인 주목을 받았다. 2026년 1월 시행을 앞두고 지난 9월에 세부적인 시행령과 고시, 가이드라인 등 하위법령안이 발표된 바 있다.

인공지능기본법은 권리나 의무 관계에 영향을 미칠 수 있는 고위험 사례를 ‘고영향 인공지능’으로 분류하며, 해당 사업자에게 영향평가 등 다양한 의무를 부여하고 있다.

한국금융연구원 백연주 연구위원은 ‘인공지능기본법 하위법령(안)의 금융분야 시사점과 개선방향’ 보고서에서 “금융회사는 정형화된 수치 중심 데이터를 대량 보유하고 있어, 과거부터 통계모형 및 머신러닝을 포함한 인공지능 모형을 적극 활용해 왔다”며 “특히 최근에는 GPT 등 생성형 AI 기술의 발달로 업무 자동화 영역에 인공지능이 도입되고 있으며, AI 에이전트로의 패러다임 전환에 따라 금융산업에도 이러한 기술이 접목될 것으로 예상된다”고 말한다.

기본법과 하위법령이 규제적인 성격을 띤다는 점을 감안하면 금융산업에서 쟁점이 되는 영역은 ▲고영향 판단 기준의 모호성 및 광범위한 적용 범위 ▲개발사업자와 이용사업자 간 구분 및 책무 분담 구조로 예상된다는 게 백 연구위원의 주장이다.

고영향 인공지능에 대한 판단과 관련한 내용은 가이드라인에서 대출심사 영역에 대한 서술로 확인할 수 있다. 대출심사 과정에서 인공지능 시스템이 최종결정에 ‘상당한 영향’을 미치거나 최종결정을 하는 경우 고영향으로 자동 해당된다.

문제는 ‘상당한’이란 게 어떤 거냐는 거다. 가령 인공지능 시스템을 활용한 프로파일링 결과를 은행원이 단순 참고만 하더라도 의사결정에 간접적으로 영향을 미칠 수 있어 이를 상당한 영향으로 볼 여지가 있다.

이뿐만 아니라 백 연구위원은 “신용공여의 범위가 광범위해 신용대출, 담보대출, 카드론 등 직접 대출뿐만 아니라 지급보증, 신용보증, 후불결제(BNPL), 자동차 할부금융 등 리스·할부·연체결제 구조까지 모두 포함된다는 점도 문제다”라고 지적한다. 또한 담보대출과 무담보대출의 경우 인공지능 시스템의 재량 범위가 크게 다를 수 있는데, 이를 일률적으로 적용하는 게 적절하냐는 문제제기다.

실무적으로 대출심사 과정에선 대출상담, 본인확인, 신용평가, 담보물 감정, 여신 적격 심의 등 다양한 업무가 포함돼 있다. 이런 모든 프로세스에 인공지능 시스템을 사용한다면, 가이드라인에 따라 검토 부담이 커진다.

이렇듯 현장의 ‘고영향’ 해당 여부를 과기부에 묻도록 규정한 점도 검토가 필요하다. 과기부장관은 필요시 50인 이상의 전문위원회 풀에서 5인으로 구성된 회의를 열어 자문을 받을 수 있도록 해놨다.

그러나 백 연구위원은 “금융규제 당국의 인공지능 관련 공무원이 포함되지 않을 수 있고, 금융 당국의 신용평가 관련 업무 방향과 고영향 판단이 상충될 가능성이 있다”며 “부처간 협조가 전제되지 않으면 절차의 복잡성과 소요 시간이 과대해질 우려가 있다”고 주장한다.

금융회사는 이미 소비자의 금융거래에 영향을 미칠 수 있는 다양한 영역에서 인공지능을 적극 활용하고 있다. 대출심사만이 아니라 보험 가입심사, 보험료 산정, 이상금융거래탐지시스템(FDS) 등 사례에 고영향 규제 논리를 확대 적용할 수도 있다.

아울러 인공지능 시스템을 개발해서 제공하는 개발사업자와, 이를 받아 제품이나 서비스를 제공하는 이용사업자 사이의 구분을 어떻게 지으며, 금융산업에서 특히 최근 중시되고 있는 책무구조 이슈에 어떻게 적용될 것인지도 논란의 여지가 있다.

백 연구위원에 따르면 “많은 인공지능 시스템이 이미 배포된 인공지능 모형을 미세조정하거나 검색증강생성(RAG)을 장착해 개선된 형태로 제공”되기 때문이다. 

시행령에선 이용사업자가 제공받은 인공지능의 ‘중대한 기능의 변경을 초래하는 수정·변경·개량’을 하는 경우, 개발사업자로 간주한다. 또한 가이드라인에선 중대한 기능 변경을 판단할 때 안전성(위험성), 용도(목적), 이용분야와 맥락, 신뢰성 등을 종합 고려하도록 돼 있는데, 이 또한 판단 기준의 재량범위가 지나치게 크고 모호하다는 지적이다.

이러한 우려는 처음 등장하는 영역에 대해 전 세계적으로 선도적인 입법이기에 이미 제기된 바 있다. AI 기본법을 최초로 제정한 EU도 모호성에 대한 비판은 있었다.

EU AI Act는 각국이 시장 감독기관 및 신고기관 역할을 하는 국가별 관할기관을 지정해 규제하도록 거버넌스 체계를 구축하고 있다.

반면 금융분야는 인공지능 사업자들이 내부 거버넌스 및 감독 등을 이미 EU 내 구축된 기존 금융규제 체계를 따라야 하고, 기존의 금융감독 틀로 AI 적용을 감독받을 수 있게 돼 있다.

따라서 금융회사의 AI 활용에 대한 규제는 기존의 금융감독 방향과 크게 다르지 않을 것으로 보인다는 게 백 연구위원의 예상이다.

종합컨대 현행 인공지능기본법의 기본 구조와 하위법령은 향후 구체화 작업이 더 필요할 것으로 보인다. 무엇보다 금융회사가 인공지능 기술 도입에 장애가 되지 않도록 과정에서 적극적인 의견 개진이 필요한 시점이다.

기사제보
저작권자 © 뉴스프리존 무단전재 및 재배포 금지
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
SNS 기사보내기
뉴스프리존을 응원해주세요.

여러분의 후원이 지속가능한 저널리즘을 만듭니다.

정기후원 하기