ETFFIN >> 개인 금융 >  >> 외환 >> 은행업
개인 금융의 AI 편견:성평등 및 공정성

인공지능은 세상을 변화시키고 있으며 금융 서비스도 예외는 아닙니다. AI는 개인 금융 부문을 재편하고 있지만 현재 성평등, 투명성, 공정성 측면에서 어떤 위치에 있습니까?

오늘날 누군가가 대출을 신청할 때, 누구도 그들의 신청서를 읽지 않을 가능성이 커지고 있습니다. 데이터 기반 알고리즘은 자격 여부, 대출 가능 금액, 위험 정도를 설명 없이 단 몇 초 만에 결정하여 대부분의 사람들이 일상 생활에서 볼 수는 없지만 느낄 수 있는 방식으로 조용히 금융 기회를 형성합니다.

이러한 시스템은 일반적으로 사람보다 빠르고, 일관성이 있으며, 편견이 덜한 중립적인 도구로 제시됩니다.

오랫동안 불투명성과 편견으로 인해 비판을 받아온 분야에서 이러한 약속은 매력적이며 업계 및 정책 토론에서 자주 반향됩니다. 그러나 그 약속은 이러한 시스템이 학습하는 데이터가 모든 사람의 삶을 동등하게 반영한다는, 거의 명시적으로 드러나지 않는 취약한 가정에 기초하고 있습니다.

5개 회원국의 현장 조사를 기반으로 한 EU 기본권청(EU Agency for Fundamental Rights)의 최근 보고서는 고위험 AI 시스템이 고용, 공공 혜택 및 법 집행과 같은 분야에서 EU AI 법에 따라 어떻게 관리되는지 조사했습니다. 법적 야망과 관행 사이에 눈에 띄는 격차가 있음을 발견했습니다. 차별의 위험은 널리 인정되지만 제공자와 배포자는 이를 체계적으로 평가할 수 있는 도구, 전문 지식 및 지침이 부족한 경우가 많습니다. 자체 평가는 일관되지 않는 경향이 있으며 감독은 여전히 빈약합니다.

이것은 중요한 문제입니다. 이러한 시스템에 제공되는 데이터가 남성과 동일한 깊이와 정확성으로 여성의 금융 생활 현실을 포착하지 못하면 그 결과는 단순한 기술적 결함이 아니라 구조적 왜곡, 즉 누가 신용에 접근할 수 있는지, 어떤 조건으로, 어떤 장기적인 결과를 가져오는지를 결정하는 구조적 왜곡입니다. AI 기반 금융이 공정하려면 먼저 이러한 시스템이 의존하는 데이터에서 여성이 '가시적'이어야 합니다.

알고리즘은 공정성을 판단하거나 결과가 타당한지 묻지 않지만, 주어진 데이터를 기반으로 가장 정확할 가능성이 높은 것이 무엇인지 추정하고 패턴을 그려서 이를 예측합니다. 데이터가 불완전하거나 왜곡되면 시스템의 결론은 처음부터 불안정한 가정에 기초합니다.

여성이 과소 대표되거나 제대로 측정되지 않거나 남성과 별도로 분석되지 않으면 시스템은 불평등한 결과를 볼 수 없으며 볼 수 없는 것을 수정할 수 없습니다. 편견은 단순히 전달되어 일상화되었습니다.

이러한 역동성은 토론이 모델 및 규제 수준에 머무를 때 놓치기 쉽지만 자동화 시스템이 실제로 관찰되는 순간 그 효과는 명확해집니다. 여러 국가에서 증거는 불평등이 알고리즘 결정에 얼마나 빨리 포함될 수 있는지를 보여줍니다. 이는 시스템이 차별하도록 설계되었기 때문이 아니라 학습한 데이터에 이미 존재하는 왜곡을 충실하게 재현하기 때문입니다.

케냐는 흥미로운 예를 제시합니다. 발표된 연구에 따르면, 널리 사용되는 디지털 대출 알고리즘은 더 나은 상환 실적에도 불구하고 여성에게 남성보다 더 적은 금액의 대출을 지속적으로 제공했으며 어떤 경우에는 3분의 1 이상 대출을 제공했습니다. 이 시스템은 의도적으로 여성을 배제하지 않았습니다. 단지 오랜 기간 지속된 사회적, 경제적 격차로 형성된 데이터로부터 학습한 다음 이러한 패턴을 대규모로 적용했을 뿐입니다.

이 사례에서 중요한 것은 케냐 자체가 아니라 사례가 가시화하는 것입니다. 알고리즘은 과거의 행동으로부터 학습하고 이러한 패턴을 일관되게 적용하는 등 원래 의도한 대로 정확하게 수행했지만, 여성과 남성의 결과를 구별하는 능력이 없으면 불평등이 실시간으로 재생산되고 있음을 감지할 방법이 없었습니다. 문제는 자동화가 아니라 맹목성에 있었습니다.

금융은 어떻게 성 사각지대를 극복할 수 있나요?

성별로 구분된 데이터가 필수적인 곳이 바로 여기입니다. 규제 기관, 금융 기관 및 기술 설계자는 금융 데이터를 성별로 분류함으로써 자동화 시스템의 영향을 파악하고 금융에 접근할 수 있는 사람을 식별하며 결과가 달라지기 시작하는 영역을 정확히 찾아낼 수 있습니다. 그러한 가시성이 없으면 성별 격차는 숨겨진 채로 남아 있고, 숨겨진 격차는 영구적으로 남는 습관이 있습니다. 디지털 금융에서 데이터는 '소녀의 가장 친한 친구'이며, 슬로건이 아닌 책임을 위한 실제 조건입니다.

대부분의 금융기관은 이미 기본 신원 확인의 일부로 고객의 성별을 기록하고 있습니다. 종이에는 정보가 일상적인 보고 및 기본 고객 기록에 포함되어 있습니다. 그러나 실제로 변수를 기록하는 것은 변수를 사용하는 것과 동일하지 않습니다. 많은 국가에서 고객의 성별은 데이터베이스에 표시되지만 건전성 보고와 같은 핵심 감독 프레임워크를 포함하여 감독자가 분석, 보고 또는 모니터링하지 않습니다. 데이터가 이미 존재하지만 수집되어 보관된 후 조용히 무시되는 경우가 너무 많습니다. 문제는 무엇을 할 수 있느냐가 아니라 무엇을 하느냐에 있습니다.

공정한 금융:개발도상국이 선도하고 있습니다

자원이 더 적다고 가정되는 국가에서는 상황이 매우 다르게 보입니다. 라틴 아메리카와 아프리카의 일부 지역에서는 규제 당국이 수년 동안 성별에 따른 보고를 요구해 왔으며 정기적으로 금융 부문의 성별 격차에 대한 데이터를 게시해 왔습니다.

칠레에서는 금융 당국이 20년 넘게 대출과 예금의 성별 차이를 추적해 정기적으로 성별을 구분한 금융 통계를 발표해 왔습니다.

멕시코에서는 규제 당국이 은행 데이터와 전국 가계 조사를 결합하여 여성과 남성이 금융 서비스를 이용하는 방식과 대출자로서의 역할을 이해합니다.

이러한 가시성은 실질적인 결과를 가져왔습니다. 멕시코의 감독 데이터에 따르면 여성 대출은 규모는 작지만 위험성은 덜한 것으로 나타났습니다. 이는 대출 손실 충당금 규정 변경에 영향을 미쳤습니다.

칠레에서는 계좌에 대한 평등한 접근이 저축이나 보험에 있어서 동일한 결과로 이어지지 않는다는 사실이 데이터를 통해 밝혀졌으며, 이로 인해 보다 목표화된 정책 대응이 촉발되었습니다. 이러한 격차가 눈에 띄게 되면 무시하기가 훨씬 더 어려워졌습니다.

이러한 관점에서 볼 때, 많은 고소득 국가의 상황은 기술적 지연이라기보다는 제도적 주저에 더 가깝습니다. 유럽의 대부분 지역에서는 첨단 데이터 인프라에도 불구하고 성별 데이터가 자발적이거나 단편화되어 있는 상태로 남아 있습니다. 이는 기술적 역량이 아니라 제도적 선택의 실패입니다. 5월에 출판될 예정인 저의 정책 논문 "데이터는 소녀의 가장 친한 친구입니다:성별 구분 데이터를 통해 디지털 금융 불평등에 대처하기"에서 이에 대해 탐구합니다.

인공지능이 금융 의사결정에 더욱 깊이 내장되면서 그러한 선택을 방어하기가 더욱 어려워지고 있습니다. 유럽이 EU AI법을 시행하고 금융에서 알고리즘 의사결정을 규제하는 방법을 논의하는 시기에 체계적인 성별 데이터가 없다는 점은 기본적인 질문을 제기합니다. 불평등을 탐지하는 데 필요한 데이터가 전혀 분석되지 않는 경우 어떻게 공정성을 모니터링할 수 있습니까?

데이터에 여성을 표시하는 것은 상징적이지 않습니다. 그것이 없다면 공정 금융은 주장에 지나지 않습니다.

개인 금융의 AI 편견:성평등 및 공정성

학자와 연구자의 전문 지식을 담은 주간 영어 이메일입니다. 이는 대륙에서 나오는 연구의 다양성을 소개하고 유럽 국가들이 직면한 몇 가지 주요 문제를 고려합니다. 뉴스레터를 받아보세요!


은행업
  1. 외환 시장
  2. 은행업
  3. 외환 거래