이 시리즈의 이전 블로그에서는 선도적인 금융 서비스(FS) 조직이 가치를 위해 AI를 확장하고 업무를 재구상하는 에이전트 아키텍처를 포함하여 인간 주도 접근 방식을 사용하는 방법을 살펴보았습니다.
이 블로그에서는 비즈니스 성과 추구, 올바른 투자 및 위험 성향 설정, 신속하고 분산된 변화 관리, 인간 중심의 변화 유지 등 변화를 잘 이끄는 방법에 중점을 둡니다.

Accenture의 2026년 뱅킹 주요 트렌드:무제한 뱅킹의 등장
자세히 알아보기
우리 연구에 따르면 경영진의 86%가 2025년에 GenAI(제너레이티브 AI) 투자를 늘릴 계획입니다. 80%는 AI의 가치가 기대치를 뛰어넘을 것으로 예상합니다. 그러나 핵심 프로세스를 위해 AI를 확장한 조직은 34%에 불과합니다. 이러한 기업은 예상 ROI를 초과할 가능성이 3배 더 높습니다.
이들 리더는 강력한 CEO 후원, 가치 우선 전략, 견고한 기반, 즉 안전한 디지털 코어, 고품질 데이터, 책임감 있는 AI 프레임워크, 숙련된 팀, 기업 교육 등 분명한 특성을 공유합니다. 이 패턴은 특히 FS에서 강합니다.
에이전트 AI를 사용하면 격차가 더 빠르게 벌어집니다. 선두 기업은 에이전트 아키텍처에 전략적으로 투자할 가능성이 4.5배 더 높으며 2025년에 GenAI 투자를 크게 늘릴 가능성이 6배 더 높습니다. 그들은 앞서 나가고 가속화하고 있습니다.
개념 증명 단계에 갇혀 있거나 주저하는 조직은 뒤쳐지고 있습니다. 금융 서비스에서 AI를 확장하는 데 장애물은 무엇입니까?
• 리더십의 불확실성, 제한된 투자, 정의되지 않은 위험 성향
• 지나치게 엄격하고 모든 경우에 적용되는 일률적인 위험 거버넌스
• 제한된 비즈니스 참여, AI를 단지 기술 변화로 간주
• 레거시 플랫폼 및 단편화된 데이터
• 기업의 변화나 재사용이 아닌 비용에만 초점을 맞춘 비즈니스 사례 모델
그러나 가장 큰 장벽은 인재, 변화, 채택에 대한 투자 수준입니다. AI 분야에서 성공하려면 인력을 그 여정에 데려가야 합니다.
Davos 2026에서 Accenture는 이러한 격차를 직접적으로 강조했습니다. 오늘날 기업은 인력 1달러당 기술에 3달러를 투자하지만, 두 가지 모두의 균형을 유지하는 기업은 장기적으로 수익성 있는 성장을 달성할 가능성이 4배 더 높습니다. Pulse of Change 설문 조사에 따르면 경영진은 AI를 성장 엔진으로 보고 있지만 AI 역할에 대한 인력 재교육을 우선시한다고 응답한 비율은 43%에 불과했습니다. 인간 능력, 특히 변화 관리 및 기술 향상에 대한 이러한 과소 투자는 AI 확장에 있어 중요한 제동 요소입니다.
다음 질문은 어디에 투자할 것인가이다. 우선순위는 타당성, 위험 선호도, 가치 실현 속도 및 전반적인 비즈니스 결과를 반영해야 합니다. 각 기업의 우선순위는 고유하지만 명확한 패턴이 나타나고 있습니다. 220개 은행에 걸쳐 독점적인 작업 수준 분석을 사용하여 우리는 PBT가 29% 증가한 것을 확인했으며 이는 3년 동안 2,550억 달러의 기회를 제공합니다. 가장 풍부한 가치 풀은 고객 서비스, 판매, IT 엔지니어링, 소프트웨어 제공, 제품 개발, 가격 책정 및 위험에 있습니다.
어디서부터 시작해야 할지 안다면 다음 질문은 우리가 그것을 감당할 수 있는지 여부입니다. AI는 매우 빠르게 변화하고 전통적으로 대부분의 은행과 보험사에 대한 투자에서 상당히 작은 부분을 차지했기 때문에 이는 흥미로운 질문입니다. 주요 CEO들은 CFO, CDO/CIO 및 이사회와 협력하여 GenAI 및 에이전트 AI에 대한 새로운 투자 욕구를 설정하고 있습니다.
우리는 기존 변화 및 기술 자금의 상당한 방향 전환(일부 경우 30%)뿐만 아니라 추가 일회성 자금 조달 및 AI를 사용한 기존 변화 투자의 가속화를 확인했습니다. 일부 AI 리더들은 이미 조기 수익을 통해 투자 자금을 자체 조달하기 시작했습니다.
AI에 대한 균형 잡힌 투자 포트폴리오는 다음과 같은 투자 확산을 고려할 때 유용합니다(Hosanger, 2025). 비용 절감, 성장, 재창조 사이; 빠른 승리(합의, 추진력 및 학습 구축)와 장기적인 변화(보다 의미 있는 이익을 위해 필요) 사이에 있습니다.
균형 잡힌 AI 포트폴리오는 다음에 걸쳐 투자를 분산시킵니다.
이러한 투자는 어떤 변화를 지향해야 합니까? 분명히 AI 자체, 생태계 파트너로부터 에이전트 조달 및 교육, 사내 에이전트 개발 및 테스트에 이르기까지 투자가 필요합니다. 간과되는 경향이 있는 것은 다음과 같은 '좋은 기초'에 대한 지속적인 투자입니다.
ROI의 가장 큰 승수는 사람, 리더십, 채택, 기술 및 새로운 업무 방식에 대한 투자입니다. 그러나 오늘날 조직에서는 인력 비용 1달러당 기술 비용 3달러를 지출하고 있어 상당한 가치를 활용하지 못하고 있습니다.
아시아 대형 은행의 경우 우리는 CEO와 협력하여 책임 있는 AI를 구축하고 역량을 구축하며 AI CoE 및 제공 플랫폼을 구축하는 동시에 바람직함, 타당성 및 실행 가능성에 대한 수백 가지 아이디어를 신속하게 평가했습니다. 결과:18개월 동안 35개의 GenAI 변경 사항이 제공되어 연간 2억 달러의 생산성 이점을 누리고 고객 쿼리 처리 시간을 절반으로 줄이면서 신용 평가 시간을 80% 단축했습니다. 포트폴리오를 평가하고 관리하는 체계적인 방법이 필수적입니다.
재사용은 필수입니다. 모듈식 AI 구성 요소는 배포 비용을 줄이고 속도를 높입니다. 추출, 요약, 연구, 검토, 테스트를 수행하는 유틸리티 에이전트는 여러 워크플로우에서 사용할 수 있습니다. 예를 들어 문서 추출 에이전트는 KYC, 신청, 인수 및 서비스를 지원할 수 있습니다.
각 재사용에는 여전히 상황별 테스트, 채택 설계 및 모니터링이 필요합니다. 직원과 마찬가지로 상담원에게도 기업 '교육'과 역할별 교육이 모두 필요합니다.
지금까지는 너무 좋았나요? 가치와 투자가 증가하고 있지만 AI를 확장하려면 AI를 책임감 있게 사용할 위치와 방법에 대한 명확한 결정이 필요합니다.
핵심 리더십과 이사회 책임은 AI에 대한 위험 선호도를 형성하는 것입니다. 즉 어떤 결정, 프로세스 및 고객 상호 작용이 AI에 적합한지, 그렇지 않은지를 결정하는 것입니다. 이러한 선택은 명시적이어야 하고 정기적으로 검토되어야 하며 비즈니스 전략, 규제 기대치 및 문화적 가치에 부합해야 합니다.
위험 선호도는 일시적이지 않고 연속적이어야 합니다. 선도적인 FS 조직은 모델 드리프트, 데이터 흐름, 에이전트 체인, 채택 품질 및 책임감 있는 AI 결과를 추적하기 위해 실시간 모니터링 및 AI 제어실을 배포합니다.
이사회, 규제 기관 및 리더십 팀에는 AI가 어디에 배포되고, 무엇을 하며, 의도한 대로 수행되는지 여부에 대한 명확한 투명성이 필요합니다. 강력한 책임 프레임워크는 이러한 투명성을 강화하여 위험이 발생할 때 소유권, 에스컬레이션 및 시기적절한 개입을 보장해야 합니다.
책임 있는 AI의 주요 측면을 더 자세히 분석하고 필요한 변화를 살펴보겠습니다.
편견과 피해 예방은 동료와 고객 모두에게 중요합니다. 우리의 목표는 간단합니다. AI로 피해를 피하고 선을 행하는 것입니다. 우리는 좋은 디자인, 고품질 교육 데이터, 그룹 간 공평한 대우, 엄격한 테스트 및 모니터링을 통해 편견을 줄입니다. 잘 테스트된 모델이라도 표류할 수 있으므로 특히 보호되는 속성과 관련하여 문제가 발생할 경우 지속적인 확인과 에스컬레이션이 필요합니다. 인간에게도 편견이 있으므로 사람과 상담원이 함께 학습하고 편견에 대응할 수 있는 상호 작용을 설계해야 합니다.
HR에서 책임 있는 AI에는 특별한 주의가 필요합니다. EU AI법은 채용, 승진, 급여 등 사람들의 경력과 삶에 영향을 미치는 결정에 고용주가 AI를 사용할 수 있는 방법을 제한합니다. AI가 인력에 대한 예측이나 권장 사항을 제공하는 경우에도 AI의 사용은 모든 직원 그룹에 걸쳐 윤리적이고 범위가 명확하며 과학적 근거가 있고 공정해야 합니다.
투명성, 설명가능성, 정확성이 중요합니다. 고객과 동료는 AI가 언제 어떻게 사용되는지 알고 싶어하며 많은 FS 프로세스에서 100% 정확도를 기대합니다. 특히 인터페이스가 더욱 대화적이고 인간과 유사해짐에 따라 AI 사용을 공개해야 합니다. AI 출력은 해석 가능하고 추적 가능해야 하며 인용을 통해 뒷받침되어야 합니다(예:투자 요약은 원본 문서를 다시 가리켜야 함). 신뢰성은 필수적입니다. GenAI는 환각을 일으키거나 결함이 있는 출력을 생성하여 신뢰를 약화시킬 수 있습니다. 정확성이 향상되는 동안 우리는 특히 AI 에이전트가 지원하는 고객 대면 의사결정의 경우 오류를 발견하고 경계하는 '주도자' 역할을 하도록 사람들을 교육해야 합니다.
AI는 또한 개인 정보 보호, 기밀성 및 사이버 보안 위험을 높입니다. AI 시스템은 "필요한 최소한의" 데이터 사용을 포함하여 데이터 보호 규칙을 따라야 합니다. 동료들은 어떤 고객 또는 직원 데이터가 사용되었는지 설명할 수 있어야 합니다. 기본적으로 안전한 프롬프트에 대한 명확한 지침이 필요합니다. 예를 들어 고객, 동료 또는 기밀 데이터를 공개 도구에 입력하지 마십시오. "필요한 최소한의" 데이터 사용을 포함한 보호 규칙. 동료들은 어떤 고객 또는 직원 데이터가 사용되었는지 설명할 수 있어야 합니다. 기본적인 수준에서는 고객, 동료 또는 기밀 데이터를 공개 도구에 절대 입력하지 않는 등 안전한 프롬프트에 대한 명확한 지침이 필요합니다.
더 자세한 내용을 보려면 Generative AI를 통한 책임 재고를 살펴보세요. 우리는 원칙에서 실천으로 고객이 위험 성향과 책임 있는 AI에 대한 올바른 방향을 설정할 수 있도록 지원합니다. 한 가지 예는 싱가포르 통화청(Monetary Authority of Singapore)과의 협력으로, Project Veritas의 일환으로 업계 전반의 프레임워크, 도구 및 방법을 구축하는 데 도움을 주었습니다. 이러한 협력을 바탕으로 싱가포르 통화청과 Accenture를 포함한 업계 파트너는 금융 기관이 책임 있는 AI를 실행하고 규모에 맞게 가치를 안전하게 가속화하는 데 도움이 되는 사례를 통해 해당 작업을 실용적인 지침으로 변환했습니다.
신뢰를 구축하기 위한 책임 있는 AI가 없으면 채택이 지연되고 가치 사례가 붕괴됩니다. FS와 같이 규제가 적용되는 산업에서는 명확한 위험 성향과 책임 있는 AI 관행을 통해 조직은 자신 있게 빠르고 안전하게 확장할 수 있습니다. 자동차의 내비게이션 시스템이나 안전벨트처럼 통제력을 잃지 않고 빠르게 이동할 수 있게 해줍니다.
AI를 고정된 목표를 가진 선형적인 변화가 아닌 빠르게 진화하는 변화로 다루는 것이 중요합니다.
AI는 과거의 기술 물결보다 2~3배 빠르게 발전하고 있지만 어느 것도 완성되지 않았습니다. 규제, 고객, 사회적 기대 역시 빠르게 변화하고 있습니다.
AI의 기술적 역량은 오류 감소, 추론 및 논리 강화, 다중 모드 입력 및 출력 개선을 통해 정확도를 높이고 있습니다. 한때는 감당할 수 없는 일(추론, 계산, 행동)이 강점이 되고 있습니다. 그러나 AI는 모든 작업에 동일하게 영향을 미치지 않습니다. Dell'Aqua et al. (2023)은 일부 작업은 큰 이익을 얻고 다른 작업은 그렇지 않은 들쭉날쭉한 경계를 보여줍니다. 그 경계는 역량이 성장함에 따라 움직이고 있습니다.
수백 가지의 새로운 모델이 등장하고 있으며, 각각의 모델은 장점과 비용이 다릅니다. 올바른 모델을 선택하는 것이 중요합니다. Agentic 아키텍처는 더 작은 전문 모델에 의존하는 경우가 많습니다. Accenture Refinery 및 에코시스템 파트너와 함께 우리는 모델 "스위치보드"를 사용하여 올바른 제어 기능을 내장하는 동시에 최상의 옵션을 선택합니다.
이 속도가 무활동을 유발해서는 안 됩니다. 변화에 대한 적응력 있고 지속적인 접근 방식이 필요합니다. AI는 시작과 끝이 있는 선형 프로그램이 아닙니다. 계속 진행 중입니다. '일어나고 무너지는' 프로젝트가 아니라 지속적인 자금 조달과 지속적인 팀이 필요합니다. 경쟁사와 파트너의 예상치 못한 발전과 신호에 대한 개방성, 반복적인 학습, 고객과 동료의 피드백, 고정된 사고방식이 아닌 성장 사고방식이 필요합니다. 빠른 변화는 가치 실현 및 학습에 있어 선두주자의 이점과 복합적인 효과를 창출합니다.
AI는 중앙 집중식 프로젝트가 아닌 분산된 비즈니스 변화로 다뤄져야 합니다.
AI는 기업 전반에 빠르게 확산되고 있으며 모든 곳에서 작업을 가속화하고 있습니다. 한때 몇 년이 걸렸던 일이 이제는 몇 달이 걸립니다. 몇 달이 걸렸던 일이 이제는 몇 주가 걸립니다. 이는 상당한 기회를 창출하지만 리더와 팀이 공유 비전을 중심으로 협력하고 명확한 가드레일 내에서 운영되는 경우에만 가능합니다.
정렬이 없으면 분산된 변화는 빠르게 중복과 무질서로 이어집니다. 비즈니스 전반의 리더는 높은 가치의 기회를 식별하고 제공 기능에 액세스할 수 있도록 지원이 필요합니다. 더 큰 규모의 AI 이니셔티브에는 실제 고객 요구와 상업적 가치에 기반한 결과를 보장하기 위해 CDO나 CIO뿐만 아니라 강력한 비즈니스 제품 소유자도 필요합니다.
AI가 보편화됨에 따라 HR 기능도 진화해야 합니다. 은행 및 보험사의 HR 팀은 인력이 AI에 대비하고 새로운 업무로 전환할 수 있도록 지원해야 하며, 규모에 맞게 인간 x 에이전트 인력에 대비해야 합니다. 이제 HR의 임무는 인력과 지능형 상담원의 결합된 인력을 조율하는 것으로 확장됩니다. 여기에는 AI 기술을 빠르게 구축하고, 직무 아키텍처를 재편하고, 파트너와 함께 학습 경로를 확장하고, 호기심과 공동 학습 문화를 조성하는 것이 포함됩니다. AI 교육, 윤리, 변화 회복력을 핵심 인재 관행에 포함시킴으로써 HR은 직원들이 AI를 두려워하지 않고 자신감 있게 작업할 수 있도록 도울 수 있습니다.
많은 금융 서비스 조직은 이미 AI 우수 센터 또는 연합 AI 네트워크를 운영하고 있습니다. 효과적이려면 이러한 팀이 데이터 엔지니어링, 모델 개발, 프롬프트 엔지니어링, 테스트, 작업 설계, 동료 참여, 채택 및 변경 관리를 포괄하는 다양한 분야로 구성되어야 합니다. 우리는 모든 규모의 고객을 위해 이러한 팀을 구성했습니다. 이들의 성공은 올바른 도구, 모델, 인프라, 데이터 기반 및 강력한 책임 있는 AI 가드레일에 대한 액세스에 달려 있습니다.
가치, 투자, 책임감 있는 확장, 분산된 변화 모두 중요하지만 AI는 인간 중심의 변화로 취급될 때만 성공합니다. AI는 고객과 동료를 위해 작동해야 합니다. 사람이 주도하는 접근 방식은 책임 있는 비즈니스의 일부이며 훨씬 더 큰 수익을 제공합니다. 이는 신뢰를 구축하고, 우려 사항을 해결하며, 상담원과의 상호 작용을 지원하고, 채택을 촉진하며, 새로운 작업 방식을 가능하게 합니다.
모든 변화의 중심에는 신뢰가 있습니다. 팀이 새로운 작업 방식을 실험하고 채택하려면 심리적 안전이 필요합니다(Edmondson, 2018). 두려움, 갈등, 낮은 신뢰가 실패한 변화의 85%를 차지합니다(Accenture Transformation GPS, 2025).
근로자들은 AI에 대해 엇갈린 견해를 가지고 있습니다. 많은 사람들이 그것을 배우고 사용하기를 원하며 종종 개인 생활에서 이미 그것을 신뢰하고 있습니다. 동시에 그들은 직업 안정성, 업무 강도, 채택 및 윤리에 대해 걱정합니다. 리더는 명확한 인력 전략, 정직한 의사소통, 그리고 변화 관리 방식에 있어 정직성을 바탕으로 대응해야 합니다.
이것은 양극화된 논평의 영역이다. AI는 일부 작업을 자동화하고 더 많은 작업을 강화하며 새로운 작업을 생성합니다. 효과는 고르지 않으며 시간이 지남에 따라 전개됩니다.
CXO의 29%만이 인력 저항을 GenAI 장벽으로 지적하고 직원의 40.8%는 업무 중복을 두려워합니다. 채택 위험 리더는 이를 무시할 수 없습니다(Accenture, Learning, Reinvented 설문조사, 2025).
리더들은 AI를 수용하는 사람들이 성공할 것이라는 점을 강조해야 합니다. Andrew Ng가 Davos에서 말했듯이 “AI를 사용하는 사람은 훨씬 더 생산적일 것이며 AI를 사용하지 않는 사람을 대체하게 될 것입니다.” 목표는 사람을 대체하는 것이 아니라 증강을 통해 뛰어난 성능을 발휘하도록 돕는 것입니다. 명확한 재교육 경로, 직원에 대한 가시적인 투자, 실질적인 학습 기회를 통해 불안감이 적응으로 전환됩니다.
AI 투자에 맞춰진 인력 계획은 채용, 재교육, 재배치를 관리하여 불필요한 중복을 줄일 수 있습니다. 사람들은 기술을 쌓고 적응하는 데 시간이 필요하며, 계획은 그러한 노력을 지시하는 데 도움이 됩니다. 리더는 가능한 한 진정성 있게 소통하고 변화를 긍정적으로 구상해야 합니다.
AI는 인간과 기계의 경계와 업무 심리학을 재편하고 있습니다. 생성적 AI와 에이전트적 AI는 직원의 역량, 자율성, 연결성을 위협할 수 있습니다. 직원의 60%는 AI가 스트레스와 피로를 증가시킬 것이라고 우려하지만, 임원 중 37%만이 이를 예상합니다. 우리는 리더십과 사려 깊은 업무 설계를 통해 대응해야 합니다.
MIT의 Acemoglu와 Johnson(2023)은 기술 및 AI 개발, 특히 문제 정의 및 작업 공동 설계에서 작업자 참여의 중요한 역할을 강조합니다. 이는 더 나은 솔루션, 채택 및 사용으로 이어져 더 큰 가치 실현으로 이어집니다.
좋은 작업 디자인은 인간이 속도와 스타일을 통제할 수 있도록 해줍니다. 이를 통해 성능이 향상되고 창의성을 위한 공간이 보존됩니다. 예를 들어, AI가 투자 제안서를 작성하는 데 소요되는 시간을 줄이면 관계 관리자는 조언, 관계 구축, 의사 결정 지원 등 심층적인 고객 작업에 집중할 수 있습니다.
전문가와 함께 AI를 테스트하면 설명 가능성과 신뢰도가 향상됩니다. DeepMind–Moorfields 연구에 따르면 AI의 추론을 분석하면 전문가의 이해와 자신감이 높아진다는 사실이 밝혀졌습니다.
대형 은행에서 우리는 사용하여 일련의 상업 은행 AI 지원 프로세스 솔루션을 설계했습니다. 관계 관리자와 그 팀. 이들은 힘든 군중이었습니다. 전문 종신 전문가였으며 일반적으로 기술에 상당히 회의적이었고 자연스럽게 고객을 보호했습니다. 우리는 개발 과정에서 AI에 대한 참여와 테스트를 통해 신뢰를 구축할 수 있었습니다. 이는 개선을 위한 파일럿 및 확장 중에 지속적인 피드백을 통해 이루어졌으며, 이는 더 나은 작업, 신뢰 및 채택으로 이어졌습니다.
AI를 채택한다는 것은 프롬프트 표시, 에이전트 사용, 출력 확인 등 새로운 작업을 시작하고 이전 작업을 중단하는 것을 의미합니다. 둘 다 불편함을 유발할 수 있습니다. 그리고 이런 일은 앞으로 몇 년 동안 반복적으로 일어날 것입니다.
AI는 직관적이라고 느낄 수 있지만 채택이 자동으로 이루어지는 것은 아닙니다. 조직에는 준비 상태와 가치 실현을 위한 반복 가능한 패턴이 필요합니다. 리더가 AI를 창의성의 촉매제로 삼으면 직원은 자신의 습관을 적응시키는 데 20% 더 자신감을 갖게 됩니다.
도움이 되는 것:
동기는 다양합니다. 얼리 어답터는 액세스와 지속적인 학습을 원합니다. 대다수에게는 지도와 시간이 필요합니다. 늦게 수용하는 사람에게는 안심과 신뢰가 필요합니다. 이미 AI를 사용하고 있는 직원과 그렇지 않은 직원 사이에 뚜렷한 격차가 있다는 증거가 일관되게 나타납니다.
측정이 중요합니다. 액세스, 사용, 인기 있는 프롬프트 및 에이전트, 워크플로에 대한 통합 깊이를 추적합니다. 소요 시간, 품질, 결과의 변화를 측정합니다. 역할, 팀, 위치 전반에 걸쳐 패턴을 분석합니다. 측정을 "소름 끼치지 않고 냉철하게" 유지하십시오. 감시가 아닌 그룹 통찰력에 집중하십시오.
초기 배포가 분위기를 조성합니다. AI가 주로 비용 절감으로 프레임되거나, 약속이 깨지거나, 교육이 지나치게 기술적이거나, 도구가 워크플로에서 벗어나 있거나, AI가 준비되기 전에 출시되면 채택이 실패합니다.
글로벌 은행에서는 ChatGPT Enterprise 및 Microsoft Copilot의 채택률이 400% 이상 증가했습니다. 우리의 접근 방식은 압력보다는 탐구를 먼저 장려했습니다. 세 그룹이 나타났습니다:
얼리 어답터에게 권한을 부여하고 80%가 실질적인 가치를 확인하고 첫 단계를 밟을 수 있도록 지원함으로써 채택과 결과를 모두 가속화했습니다. 결국 대부분의 늦게 채택한 사람들은 동료들이 얻을 수 있는 혜택을 보고 참여하게 되었습니다.
많은 근로자들은 AI가 윤리적으로 사용될 것인지 의문을 제기합니다. 53%는 결과물의 품질과 불명확한 책임에 대해 걱정하지만, 21%의 경영진만이 이를 우려한다고 생각합니다.
조직이 명확한 위험 선호 프레임워크와 책임 있는 AI 관행을 갖추고 있다면 이를 가시화해야 합니다. 리더는 이러한 관행이 의사결정을 어떻게 안내하고, 투명성을 보장하고, 위험을 관리하고, 책임을 명확히 하는지 보여주어야 합니다. 우려사항을 제기하기 위한 명확한 채널이 필수적입니다.
한 FS 기관에서는 행동과 의사소통을 통해 윤리적 문제를 해결했습니다. 우리는 책임감 있는 AI 지침을 수립하고, 명확한 책임을 갖고 제품 소유자를 교육하고, 공동 설계에 직원을 참여시키고, 설명 도구를 구축하고, 보고 및 내부 고발 채널을 만들고, AI 모니터링에 초점을 맞춘 2차 방어선을 구축했습니다. 리더들은 이러한 조치를 명확하고 일관되게 전달했습니다.
생각해 보고 싶은 몇 가지 핵심 사항 — 여러분의 생각과 아이디어를 알려주세요:
다음 블로그에서는 AI를 동료로서 활용하여 인력을 어떻게 재구성할 수 있는지 살펴보겠습니다.
분산되고 빠르게 움직이는 이러한 변화를 더 넓은 시장 신호에 연결하려면 2026년 주요 은행 동향을 읽어보세요. 보고.