금융IT 이슈 따라잡기

home(코스콤) 뉴스룸 금융IT 이슈 따라잡기

[오피니언] 증권사 AI 기반 디지털 전환의 주요 과제와 이슈

사업부 :
대외협력부
작성일 :
2023-09-26 15:00:00

글. 백연주(한국금융연구원 연구위원)


빠른 기술 발전과 더불어 금융산업은 이미 AI와 뗄 수 없는 가까운 관계가 되었다. 금융산업이 데이터 의존적이라는 특성, 그리고 모든 가치사슬의 영역에서 디지털화되는 추세로 인해 로보어드바이저, 챗봇, 상품 추천, 이상거래 탐지, 신용평가 및 여신 심사 등 다양한 방식으로 AI 기술을 이미 활용하고 있다. 금융업 중에서도 금융투자업은 특히 많은 데이터를 처리해야 한다는 특성, 회사의 비용 효율화에 대한 니즈, 그리고 이미 널리 보급되어 온 자동화, 계량화된 매매방식 등으로 인해 로보어드바이저 등 여러 방면에서 AI 기술을 수용하고 있다.

본고에서는 금융투자업과 AI 기술 활용의 현황을 살펴보며 현재 현업에서 받아들이고 있는 여러 사례들과 잠재적 리스크, 앞으로의 대응과제를 살펴보고자 한다. 이는 세계 각국에서 인공지능 관련한 규제와 산업 활성화 정책을 동시에 발표하고 있고, 한국 역시 2022년 금융업 AI 가이드라인을 발표하며 일반적인 정책 방향을 발표했기 때문에 이러한 추세와 앞으로의 구체적인 대응책을 마련함에 있어 금융투자업의 현황을 중점적으로 살펴볼 필요가 있기 때문이다.

 

| 금융회사의 AI 기술 활용, 효율성 제고 목적

국내의 경우 증권사들은 진화하는 AI 기술에 발맞추기 위해 플랫폼과 서비스에서의 디지털 전환에 속도를 내고 있다. 오프라인 지점을 최소화하는 대신 모바일·디지털화에 집중하면서 고객 자문이 필요한 투자 및 자산관리 종합서비스를 비대면으로 제공하기 위해 어떻게 AI 등의 디지털 기술을 효과적으로 활용할 것인가에 초점을 맞추고 있다.

이렇게 금융투자업에서 AI 기술을 활용하고 있는 현황은 다음과 같다. 일반적으로 활용하는 목적 중 하나는 금융회사의 운영(Operation) 과정에서 효율성을 높이기 위한 수단으로 AI를 활용한다. 이는 기업 내부의 여러 자료, 데이터들을 이용해 모형을 만들고 학습된 모형을 바탕으로 기존의 업무를 효율화하는 방식으로 구현된다. 예를 들어 이상거래를 탐지하거나 자금세탁(AML/CFT) 방지의 목적으로 거래 자료를 모니터링 하는 과정에서 AI는 좋은 툴을 제공하고 있다. 특히 AI 모형 중 머신러닝 모형은 이상(Anomaly) 데이터를 탐지하고 데이터를 조직화 하는데 있어 강점을 갖고 있기 때문에 2021년 국제자금세탁방지기구(FATF)에서는 AI 등 신기술을 이용한 자금세탁방지 및 사기 탐지 모형은 더 빠르고 정확하며 효율적으로 여러 거래들을 실시간으로 감시할 수 있기에 합리적인 범위 내에서 사용할 필요가 있음을 발표한 바 있다.

한 사례로 덴마크의 대형은행인 단스케뱅크(Danske Bank)는 사기 거래를 탐지할 수 있는 AI 알고리즘을 도입, 사기 거래 탐지 확률을 50% 가량 높였다. 또한 미국의 금융회사 중 디지털 전환에 선진적인 캐피탈원(Capital One)과 JP모건체이스는 생성형 AI를 이용한 사기거래 탐지 시스템을 개발하여 사기 탐지율을 높이고 위성양성(False Positive) 케이스를 줄인 바 있다. 이와 같이 AI 모형은 사람이 수동으로 하던 많은 업무를 자동화 하는 한편, 데이터를 바탕으로 더 높은 정확도로 업무를 수행할 수 있도록 하여 효율성을 증진시킬 수 있다.

 

| AI 기술 활용의 확대

대고객 서비스에도 AI 기술은 활발히 활용되고 있다. 대고객의 범위는 크게 B2B 비즈니스와 B2C 비즈니스로 나눠 살펴볼 수 있다. B2B 비즈니스의 대표적인 사례로는 지난 3월 블룸버그가 출시한 출시한 자체 AI 서비스 ‘블룸버그GPT’를 들 수 있다. 이는 약 270만 달러가 소요된 거대 프로젝트로 생성형AI 모델인 블룸버그GPT는 금융뉴스, 회사의 재무제표, 보도자료, 블룸버그 뉴스 등 금융 데이터를 바탕으로 학습하여 금융 분석, 보고서 작성, 회사 구조 파악 등 다양한 금융 이슈에 대해 더 정확한 답변을 제공하는 한편, 기존 애널리스트들이 텍스트 자료를 바탕으로 수동적으로 정보를 처리하는 작업을 효율화하고 자동화할 수 있도록 했다.

B2C 비즈니스의 영역에서 자주 언급되는 대고객 서비스의 하나인 챗봇 역시 AI 기술이 자주 적용되는 분야다. 최근 생성형AI 기술과 초거대언어모델(LLM) 그리고 자연어 처리 기술의 비약적인 발전으로 챗봇 기술 역시 급속도로 성장하고 있다. 기존 상담사를 통한 업무를 자동화하여 비용을 절감하는 효과를 기대할 수 있어 여러 금융회사에서는 적극적으로 기술을 활용하고 있다. 일례로 KB증권은 텍스트를 음성으로 변환하는 기술(Text-to-Speech), 음성 인식 기술(Speech-to-Text), 그리고 텍스트 분석 기술(Text Analytics)를 바탕으로 한 AI 금융상담서비스를 도입한 바 있다.

한국투자증권이 AI 버추얼 휴먼 애널리스트 ‘한지아’를 통해 현재 시장 분석 보고서를 소개하는 코너를 진행하고 있다. 삼성증권도 AI 휴먼 스타트업 ‘딥브레인’과 협업을 맺고 현업에서 활동 중인 애널리스트의 생김새와 목소리 등을 복제해 ‘버추얼 애널리스트’를 만들었다. 미래에셋증권은 AI기술을 이용해 해외주식 뉴스를 실시간으로 번역·요약해 제공하는 서비스를 출시했다.

자산관리 서비스 역시 이른 시점부터 활발하게 AI 기술을 도입한 분야 중 하나다. 이제는 증권사에서 로보어드바이저를 이용한 계량적인 투자 서비스를 빼놓기는 어려워졌다. 투자자 성향을 분석해 최적 자산 배분 포트폴리오를 제공하는 것에서부터 AI 알고리즘 기반 EFT, 펀드 등을 만드는 등 다방면으로 AI 기술을 활용하고 있다. 이 과정에서 금융회사와 여러 로보어드바이저 업체간 협업이 활발해지기도 했다. 하나증권은 로보어드바이저 전문기업 ‘콴텍’과 PB 플랫폼 구축에 대한 계약을 맺었다. AI 기술을 활용해 고객에게 개인화한 자산관리 서비스를 제공하며 향후 퇴직연금 분야로도 로보어드바이저 서비스를 확대할 계획이다.

그밖에도 유진투자증권은 챗GPT 기반 AI 애널리스트 솔루션을 오는 11월 개시할 예정이다. 증권사 프라이빗뱅커 고객 자산관리와 투자상담 시 활용하는 플랫폼으로 두물머리의 챗GPT AI 주식 애널리스트 ‘불리오AI’를 기반으로 개발된다. 신한투자증권의 금융AI전문회사인 신한AI에서는 신한투자증권 MTS를 통해 주식투자 등과 관련한 자본시장 투자자문 서비스를 제공할 예정이다.

 

| AI 기술 활용이 가져온 변화

광범위한 AI 기술 활용은 몇 가지 특징적인 금융투자업의 변화를 가져왔다. 하버드비즈니스스쿨의 한 연구자는 AI 기술 기반의 계량 투자 기법이 점차 주류를 이루면서 자산관리업(Asset Management) 분야에서 개별 기업의 성장성 및 장기적인 미래를 바탕으로 투자하는 액티브 매니저의 비중보다 계량적인 데이터를 바탕으로 단기적인 수익률을 예측하여 보수적으로 자산을 운용하는 패시브 매니저의 비중이 커졌다고 주장한다. 실제 최근에 미국 금융시장의 자금이 액티브하게 운용되는 뮤추얼 펀드에서 지수를 추종하는 패시브하게 운용되는 ETF나 인덱스 펀드로 쏠리고 있다. 이는 전반적으로 자산관리업의 수수료 수익을 낮추고, 경쟁을 심화시키는 결과로서 작용했을 가능성이 있다.


 

금융회사의 인력구조 변화 역시 뺴놓을 수 없는 주요한 변화다. 과거에는 전통적인 금융 업무를 수행할 수 있는 일반 사무직 인력을 필요로 했다면 금융회사의 디지털화가 가속화되면서 점차 IT 인력 위주로 채용하는 형태로 변화하고 있다. 일례로 JP모건은 5만 명에 달하는 테크 인력을 보유하고 이들에게 매년 약 120억 달러를 투자하고 있다. 다만, 금융업의 특성상 금융 도메인과 관련한 충분한 지식을 가지면서 IT 기술을 동시에 보유한 인력은 상대적으로 희소해 여러 금융회사에서 IT 인력 수급에 어려움을 겪고 있다. 이에 따라 증권사들은 직접 IT 인재 양성프로그램을 운영하거나 공모전을 열기도 하면서 인력 수급에 여러 노력을 기울이고 있다.

 


| AI 기술 활용의 그림자

이렇게 금융투자업 전반이 변화하면서 AI 기술의 잠재적인 위험성도 정책당국과 학계에서 주목하고 있다. 게리 겐슬러(Gary Gensler) 증권거래위원회(SEC) 의장은 지난 7월 한 연설장에서 AI 기술을 통해 글로벌 금융시스템의 상호 연결성이 강화되어 금융 위기를 발생시킬 수 있는 잠재적 위험성이 증가하고 있음을 경고한 바 있다. 이는 AI 투자 모형들이 유사한 데이터나 비슷한 로직으로 운영되므로 동조성이 강화될 가능성이 커 투자자 간의 집단 행동과 유사한 현상이 발생할 수 있음을 말하는 것이다. 특히, 겐슬러 의장은 금융회사가 기술 회사에 위탁하는 경향성이 강화되어 일부 AI 기술을 개발하는 회사에 투자금이 집중된다면 집단행동이 더 잘 발생하는 한편, 금융 안정성이 위협될 가능성이 있음을 주장하였다.

AI 모형이 내포하고 있는 내재적 편의(Embedded Bias) 현상은 금융투자업에서도 문제가 될 소지가 있다. AI 모형은 학습하는 데이터에 많은 영향을 받고, 모형을 기존의 통계 모형같이 보기 어려운 측면이 있기에 모형 결과의 신뢰성에 대한 의문으로 귀결될 가능성이 크다. 특히, 투자를 수탁받은 업체가 이해상충의 문제가 있을 경우 모형 결과가 왜곡될 가능성이 있고, 이는 설명가능성 측면에서 AI 모형이 갖고 있는 한계로 인해 공정성을 확인하기 어려운 특성이 있다. AI 기술에 대한 금융투자업의 의존성이 증가할수록 특정 수탁사에게 투자가 집중될 가능성이 큰데, 수탁사의 이득이 되는 방향으로 조작을 하거나 이해상충의 문제가 발생할 수 있다.

 

| 잠재적 리스크 대응을 위한 준비 필요

이와 같은 변화와 잠재적 위험성을 검토해보면 무분별한 AI 기술의 도입은 오히려 금융 안정성을 저해하고 투자자 편익이 감소할 수 있기에 금융회사가 지켜야 할 가이드라인 및 AI 기술의 바운더리를 만들어주는 것이 필수적이다.

올 6월 유럽의회에서 인공지능(AI) 법안이 통과된 것은 이에 대한 시사점을 준다고 할 수 있다. 세계 각국은 비규제적 지침, 가이드라인 형태로 AI 기술을 규율하는 가운데 유럽은 보다 나아가 법률적 규제의 방식으로 인공지능 모형을 다룸으로써 인공지능 모형에 대한 규제의 시급성과 필요성, 그리고 강제성이 일정 부분 필요함을 보여주었다. 이 법에서는 인공지능으로 사람을 판단하고 분류하는 소셜 스코어링(Social Scoring), 민감한 신체적 특성(인종, 성별 등)을 사용하는 생체인식분류(Biometric Categorization)는 금지되었다. 또한, 생성형AI 및 초거대언어모델(LLM)로 생성된 콘텐츠가 인간이 구현한 것이 아니라는 것을 밝히고 학습 데이터를 공개하도록 하는 내용을 포함해 인공지능 모형의 한계를 설정하고 있다.

국제증권관리위원회(IOSCO)에서 2021년도에 발간한 ‘금융투자업의 AI 및 머신러닝 활용규칙’과 2021년 금융위에서 발간한 ‘금융분야 AI 가이드라인’은 금융업 AI를 중심으로 원칙을 논의하고 있다는 측면에서 검토할 필요가 있다. IOSCO의 가이드라인은 AI/ML 모형에 대한 개발, 테스팅, 모니터링 등 전 과정의 거버넌스 체계 마련, 규제당국의 알고리즘에 대한 지속적인 테스트, 모니터링 권한 부여, 제3자 업무 위탁 시 적절한 모니터링 및 책임 체계 마련, 금융회사의 AI/ML 모형이 소비자에게 미칠 영향 등 필수 정보에 대한 공개 의무 부여, 그리고 이용하는 데이터 및 모형이 잠재적 편의나 문제 소지가 없도록 적절한 퀄리티를 갖고 있는지 규제당국이 통제해야 함을 제시했다.

금융위의 금융 분야 AI 가이드라인 역시 유사한 내용을 다뤘는데, AI 이용에 대한 내부윤리 및 구성원의 역할, 책임, 권한을 정의한 거버넌스를 구축할 의무, 기획 설계, 개발 단계에서 개인정보에 대한 적절한 처리 의무, 활용 목적과 방식에 대한 윤리원칙 공표, AI 시스템 도입 시 소비자의 권리구제 방안 마련, 제3자 업무 위탁 시 위험관리 지침 마련, 주기적 점검 등 책임성 있는 업무 위·수탁 방안 마련 등을 포함하고 있다. 두 지침 모두 금융업 전반에 대한 포괄적인 지침 성격을 띠는 한편, 개별업권의 특성을 반영한 세부 지침은 아직 마련되지 못한 것으로 보인다.

이미 로보어드바이저 등 자동화된 투자 상품에 대해서는 2016년도부터 세계 각국 구체적으로 규제가 존재하고 한국 역시 테스트베드를 통해 알고리즘의 안정성, 이해상충의 문제 등을 모니터링 하고 있는 만큼, 새로운 기술이 적용 시 발생 가능한 문제들을 모니터링 할 수 있기 위해 지속적인 연구가 필요할 것이다. 특히 딥러닝 등 설명가능성 측면에서 약점을 보이는 고도화된 인공지능 모형이 더 많이 쓰이면 쓰일수록 발생가능한 리스크를 포착하는 것도 어려워질 가능성이 커 규제당국도 학계 및 산업계와 지속적인 협력을 통해 규제 방식을 고도화 할 필요가 있다.

대고객 서비스 분야에 AI 기술을 활용할 시에도 불완전판매의 가능성을 줄이기 위해 정부의 모니터링 수단이 필요하다. 금융보안원의 ‘금융분야 AI 보안 가이드라인’에 포함된 AI 챗봇서비스 보안성 체크리스트에 따르면 개인정보 보호 및 시스템 보안과 관련된 여러 이슈들을 포함하고 있지만, 아직까지 금융상품의 판매 및 소비자와 관련된 구체적인 가이드라인은 없는 것으로 보인다. 특히, 온라인 채널을 통한 금융상품 판매가 더욱 커져가고 있기에 테스트베드를 통해 금융소비자에 대한 설명의무를 이행하고 있는지 모니터링 하는 시스템 및 금융회사 책임 범위의 경계를 명확히 할 수 있는 지침 마련은 필요할 것으로 생각된다.

 

 

인공지능 모형이 갖고 있는 리스크를 적절히 통제하는 것도 중요하지만, 기술 활용에 따른 금융회사간 경쟁양상의 변화와 환경 변화에 있어서도 주의를 기울일 필요성이 있다. 전 세계 정부가 AI 기술 관련 정책을 앞다투어 발표하고 있는 현 시점에서 글로벌 동향을 살피고, 그리고 금융투자업의 동향을 세심하게 살피는 태도가 필요하다.

 

* 저작권법에 의하여 해당 콘텐츠는 코스콤에 저작권이 있습니다.
* 따라서, 해당 콘텐츠는 사전 동의없이 2차 가공 및 영리적인 이용을 금합니다.

윗글
[코스콤리포트] AIOps(AI옵스) 성공요소와 금융회사 활용방안
아랫글
[코스콤리포트] 개인정보 자기결정권의 실현과 마이데이터의 확대