娇色导航

????

??? ??

Andrada Fiscutean
Freelance writer

‘?? vs. ????’··· AI? CX ????

??
2024.09.197?

AI? ??? ??? ??? ? ??. ??? ????? ??. ??? ??? ??? ?? ??? ??? ??? ??? ???? ?? ??? ??? ???? ????

우리 모두 경험해본 적 있다. 노트북이 고장 나거나 비행기를 놓치거나 보험회사에 전화해야 하는 상황. 빠른 상담을 통해 문제를 해결할 수 있기를 바랐지만, 공감 없이 대본대로 질문하고 답변하는 인격이 없는 목소리가 전화기 너머로 들려온다. 결국 처음보다 더 큰 좌절감을 느끼게 된다.

실망스러운 경험을 한 후에는 더 근본적인 질문이 떠오르게 된다. 내 데이터를 어떻게 처리하는지, 공정성과 투명성을 위해 감사를 받는지, 실제로 윤리적으로 행동하도록 학습시킬 수 있는지, 이 기술에 어떤 편향성이 내재되어 있는지 등이다.

고객 서비스에서 AI의 역할이 커짐에 따라 이러한 질문이 중요해지고 있다. CIO와 기타 경영진도 이를 잘 안다. CX 네트워크의 글로벌 CX 2024 현황 조사에서 AI의 윤리적 사용과 향후 개발에 대해 점점 더 우려하고 있다는 데 동의하거나 매우 동의한 비율이 2/3에 달했다. 응답자들은 전 세계 지역의 CX 실무자, 서비스 리더, 분석가 및 컨설턴트였다. 

또한 38%는 오늘날 고객이 가장 우려하는 세 가지 사항 중 하나로 AI가 데이터를 사용하는 방식에 대한 투명성을 꼽았으며, 55%는 데이터 프라이버시 및 보안이 고객의 주요 관심사라는 데 강력하게 동의했다.

오늘날 A는 고객 서비스를 빠르게 변화시키고 있다. 더 이상 인간의 상호작용을 모방하는 것이 아니라 자연스럽게 느껴지는 경험을 제공하는 데 초점을 맞추고 있다. 런던대학교 로열 할러웨이의 디지털 마케팅 선임 강사이자 디지털 조직 및 사회 연구 센터의 디렉터인 니스린 아민은 “고객 경험을 위해 AI를 구현할 때 조직이 저지르는 큰 실수 중 하나는 윤리적, 인간적인 상호작용보다 효율성을 우선시하는 것”이라고 지적했다. 

인도 무드라 커뮤니케이션 연구소의 마케팅 석좌 교수인 바르샤 자인은 이에 동의하며 “인간이 AI를 주도해야 하며, AI가 인간을 주도해서는 안 된다”라고 덧붙였다. 

고객 경험을 향상시키는 임무를 맡은 CIO와 기타 최고 경영진에게 진정한 과제는 AI가 보다 인간적으로 행동하도록 가르치고 공정성하면서도 적절하고 윤리적으로 행동하도록 하게 하는 것이다.

일련의 원칙 수립
최근 몇 년 동안 고객 지원 분야에서 AI를 활용할 수 있는 여러 방법이 발굴됐다. 특히 은행과 기타 금융 기관에서는 고객과의 상호작용을 간소화하고 서비스 효율성을 개선하기 위해 고객 서비스에 AI를 통합하고 있다. 예를 들어, 많은 금융기관에서 잔액 조회, 거래 내역, 대출 신청과 같은 일상적인 업무를 처리하는 데 AI 기반 챗봇을 사용한다.

또한 AI는 사기 탐지, 거래 패턴 분석, 의심스러운 활동의 실시간 표시 등에도 활용되어 수동 시스템보다 훨씬 빠르고 정확하게 처리하고 있다. 네덜란드 ING 그룹의 최고 분석 책임자인 바하디르 일마즈는 자사의 고객 대면 챗봇만 매일 최대 5,000건의 문의를 처리할 수 있으며, 고객 만족도와 이탈률을 개선하기 위해 생성형 AI 기능을 강화했다고 전했다.

그는 ING가 AI와 관련하여 다음과 같은 단계별 원칙을 가지고 있다고 설명했다:

• 공정성 – 의사 결정 프로세스에 편견이 없도록 한다.
• 설명 가능성 – 대상 고객이 논리를 이해할 수 있도록 보장한다.
• 투명성 – 모델 개발의 전체 과정을 설명할 수 있도록 한다.
• 책임성 – 각 의사 결정 단계에 책임을 명확히 한다.
• 보안 – 모델이 의도하지 않은 결과를 생성하지 않도록 한다.

AI 개발 과정에 강력한 윤리적 기준과 정책을 마련하는 것이 도움이 될 수 있다. “이렇게 하면 윤리적 고려 사항이 사후에 고려되는 것이 아니라 처음부터 AI 시스템의 구조에 포함되도록 할 수 있다”라고 아민은 말했다. 한편 자인 교수는 팔이 안으로 굽기 쉽다는 점에서 CIO와 CTO는 AI 기반 서비스가 얼마나 인도적인지 측정하는 작업에 적극적이어야 한다고 덧붙였다.

인간적 팀 구축
많은 조직이 비용 절감의 맥락에서 고객 지원 분야에 AI를 도입하려 한다. 하지만 에어헬프의 최고 기술 책임자인 팀 보이스버트에 따르면 그의 기업은 다르다. 항공편 지연, 취소 또는 초과 예약에 대한 보상을 받을 수 있도록 도와주는 기업인 에어헬프는 서비스 관련 문의를 효과적으로 처리하는 AI 기반 채팅 시스템으로 유명하다.

그는 “우리 채팅 기반 AI의 목표는 인간을 대체하거나 인간 고객 서비스 상담원에 대한 투자의 우선순위를 낮추는 것이 아니다. 따라서 고객이 원할 경우 사람과 대화하기 어렵도록 설정하지 않았다. 고객이 문의하는 대부분의 내용은 AI와 봇을 사용하여 쉽게 전달하지만, 고객 서비스 상담원과 벽이 쌓여 있다는 느낌을 주지 않도록 노력한다”라고 말했다.

채팅 기반 AI 시스템을 설계할 때 한 가지 규칙은 고객의 실망 없이 가능한 작업과, 할 수 없는 일을 정확히 파악하는 것이다. 보이스버트는 “우리의 고객 서비스 봇은 고객에게 특정 종류의 정보를 제공하는 데만 목적이 있다. 상담원과의 관계를 대체할 수 있는 봇이 있다고 생각하는 유혹에 빠지지 않으려 한다”라고 말했다. 봇이 쉽게 제공할 수 없는 것을 찾고 있을 때 고객을 인간 상담원에게 적극적으로 안내하는 것도 이 회사가 고수하는 또 다른 원칙이다.

에어헬프는 또한 다른 AI 도구를 사용해 항공사들이 고객 클레임과 관련된 상태 업데이트와 함께 보낸 자동 메시지를 해석한다. 고객이 업로드하는 탑승권 및 전자 항공권의 정보를 분석하기도 한다. 보이스버트는 “이 두 툴은 상담원의 처리 부담을 상당 부분 덜어주고 사소한 업무를 제거한다. 덕분에 비표준적인 시나리오에서 고객과 직접 협력하는 데 더 집중할 수 있다”라 고 말했다.

ING의 AI 기반 챗봇 또한 사람과 함께 작동한다. 일마즈는 “모든 대화를 검토하여 시스템이 차별적이거나 유해한 언어를 사용하지 않는지, 환각을 일으키지는 않는지 확인한다. 어떤 방식으로 AI를 도입하든 사람이 프로세스의 중심에 있다는 사실은 변하지 않는다”라고 말했다.

편견에 유의
AI는 다양한 목적을 위해 활용될 수 있으며, 고객 확보도 이에 포함된다. 예를 들어 ING는 생성형 AI 도구를 사용하여 외국인, 젊은 부부, Z세대에게 맞춤형 콘텐츠와 혜택을 제공하는 개인화된 마케팅 캠페인을 만든다. ING와 호주 커먼웰스 은행(CBA)도 AI 도구를 사용하여 사이버 보안을 강화하고 고객, 특히 취약한 환경에 있는 고객에게 더 안전한 뱅킹 환경을 조성한다.

CBA의 AI 랩 센터 오브 엑설런스 책임자인 루이스 피자토는 “비정상적인 거래 활동을 스캔하고 고위험으로 간주되는 패턴과 사례를 식별하여 조치를 취한다. 또 AI를 사용하여 자연재해 지역에 있는 고객을 실시간으로 지원하며, 혜택 찾기 도구를 통해 12억 달러 이상의 정부 혜택 및 환급을 받을 수 있도록 고객을 돕기도 했다”라고 말했다.

이러한 여러 활용처에서 조직은 고객 데이터를 다룰 때 사용자 개인정보 보호와 데이터 보호를 우선시하고 최신 규정을 준수해야 한다. 아민은 “AI 시스템은 방대한 양의 개인 데이터에 의존하는 경우가 많기 때문에 이러한 정보를 보호하는 것은 신뢰를 유지하고 윤리적 기준을 준수하는 데 매우 중요하다. 이는 엄격한 데이터 보호 조치를 구현하고 데이터 사용에 대해 투명하게 공개하는 것을 의미한다”라고 말했다.

또 다른 중요한 초점은 AI 개발, 의사 결정 및 적용에 있어 포용성을 확보하는 것이다. 즉, 다양한 팀을 참여시켜 AI 시스템을 만들고, 다양한 데이터와 관점을 사용하여 이를 훈련하고 개선해야 한다.

즉 조직은 AI에 잠재적인 편향성이 있는지 정기적으로 테스트하고 이를 수정하기 위한 조치를 취해야 하며, CIO는 이를 염두에 두어야 한다. 아민은 “데이터 수집부터 알고리즘 설계에 이르기까지 AI 개발 및 배포의 다양한 단계에서 편견이 발생할 수 있다. 정기적 감사 및 편향성 테스트가 지속적인 프로세스가 되어야 하며, 발견된 편향성을 해결하고 수정할 수 있는 메커니즘을 있어야 한다”라고 말했다. 

경영진의 책임성 확보
AI를 사용하여 고객 경험을 강화하는 데 있어 리더의 책임은 무겁다. 아민은 “CIO와 최고 경영진은 리더십 차원에서 윤리적 이니셔티브를 지지하고 책임감 있는 혁신 문화를 조성함으로써 보다 인간적인 AI를 구현할 수 있다”라며 AI 전문가와 긴밀히 협력하고 포괄적인 윤리 교육에 투자해야 한다고 강조했다.

그는 이어 “특히 AI 개발팀에서 다양성을 우선시해야 한다. 예를 들어 여성과 소수 민족 출신을 적극적으로 채용하는 등 AI 직종에서 소외된 소수 민족을 우선적으로 고려해야 한다. 모든 사용자에게 효과적으로 서비스를 제공하는 공정하고 편견 없는 AI 시스템을 만들기 위해서는 AI 관련 의사 결정과 대표 데이터 세트에서 다양한 관점을 보장하는 것이 필수적이다”라고 덧붙였다.

아울러 AI가 인간적 태도를 보이도록 하기란 아직 까다롭기 때문에 AI 기반 고객 상호 작용에 대한 피드백을 수집하고 그러한 역량을 강화하는 메커니즘을 구현하는 것이 더욱 중요하다. “여기에는 실시간 피드백 옵션, AI 경험에 초점을 맞춘 고객 설문조사, 서비스 로그 분석 등이 포함된다”라고 그는 말했다. 한편 AI 관련 문제를 보고하기 위한 포커스 그룹과 전용 채널을 구축하면 윤리적 문제를 해결해야 하는 시점에 대한 귀중한 인사이트를 얻을 수 있다.

보이스버트는 CIO, CTO, CEO가 AI가 단순히 일을 대체할 수 있다는 가정에서 출발해서는 안 되며, 어떤 경우에는 AI가 전혀 적절하지 않다는 것을 알게 되어서는 안 된다고 덧붙였다. 그는 스펙트럼의 반대쪽 끝에서 시작할 것을 제안한다. 즉, 인간만큼 인간적일 수 있는 AI는 없다고 가정하라는 주문이다.

그는 “작거나 제한적 가치를 제공하는 특정 시나리오를 찾아 시작한다. AI 기반 시스템이 인간이 검토하고 승인할 수 없는 고객과의 직접적인 커뮤니케이션을 할 수 있도록 구성하면 안 된다. 전적으로 AI에 의존하는 워크플로우를 피해야 한다”라고 말했다.

일마즈도 이에 동의하며 AI가 비즈니스에 즉각적인 이점을 가져다주는 만병통치약은 아니라고 강조했다. “제대로 작동하지 않는 비즈니스 프로세스가 있는 경우 AI 요소 도입은 일을 더 복잡하게 만들어 가치를 제한할 뿐이다. 비즈니스 기술, 데이터, 분석 팀이 협력하여 프로세스를 간소화하고 고객이 원하는 여정을 만들 때 진정한 가치가 창출된다”라고 그는 말했다.  dl-ciokorea@foundryco.com

Andrada Fiscutean
Freelance writer

Andrada is an international science and technology journalist with features in , , , , , , and more. She has over 20 years of experience working as a radio journalist, 10 as a science and technology reporter, and four as a TV news voice-over.

Andrada's story won a 2024 AZBEE award in the Impact/Investigative category.

? ??? ?? ???