???? ??? ???? ?? ?? ?? ???? AI??, ??? ?? ????? ?????? CIO??? ?? ?? ? ?? ??? ??. Credit: Rob Schultz / Shutterstock 많은 기업 CIO가 예측 분석을 제공하고 AI 에이전트를 통해 업무 혁신을 이끌어야 하는 압박을 받고 있다. 그러나 데이터 거버넌스, 데이터 운영, 데이터 보안에 대한 투자가 비즈니스 중심 전략에 뒷전으로 밀려나는 경우가 너무 많아 AI의 성공을 위태롭게 한다. 이런 허점을 해소하고 데이터 공급망에 대한 고위 경영진의 관심을 확보하기 위해, CIO는 최고 데이터 책임자(CDO)를 채용하거나 협력하면서 데이터 부채 해소, 데이터 파이프라인 자동화, 데이터 품질과 데이터 모델 상호운용성을 중시하는 사전 예방형 데이터 거버넌스 모델로의 전환을 추진하고 있다. 그러나 데이터 거버넌스 책임을 과도하게 위임하거나 데이터 운영 개선을 방관해서는 안 된다. 디지털 전환 전략을 재검토하고 AI 투자를 통한 비즈니스 가치를 실현하려는 CIO라면, 이를 저해할 수 있는 데이터 리스크에 주목해야 한다. CIO가 점검하고 리스크 완화 전략을 마련해야 할 6가지 주요 데이터 리스크를 정리했다. 가장 이상적인 것은 이런 리스크를 전략적 기회로 전환하는 접근이다. 분류되지 않은 데이터와 무관심한 데이터 책임자 데이터 품질 향상과 규제 준수를 위해 고군분투하는 데이터 거버넌스 책임자에게 가장 큰 과제를 물어보면, 빠지지 않고 등장하는 문제가 바로 데이터 정책 수립과 준수에 참여할 책임자를 파악하고 참여시키는 일이다. 데이터 책임자가 적극적으로 참여하지 않으면, 데이터는 분류되지 않은 채 AI에 사용돼 개인정보 보호법이나 기타 규제를 위반할 수 있다. AI 시대에는 분류되지 않은 데이터가 또 다른 문제를 일으킨다. 데이터 과학자가 이런 데이터를 규정 없이 AI 모델에 사용해야 할지, 아니면 데이터 거버넌스 측면에서 사용을 전면 금지해야 할지 결정해야 하기 때문이다. 넷우븐(Netwoven)의 CEO 니라즈 테나니는 “콘텐츠를 분류해야 보안 인프라 각 요소가 적절히 대응할 수 있다”라며, “수동 분류는 많은 노동력이 필요하고, 자동 분류는 오탐(False Positive)이 많기 때문에 적절한 균형이 성공의 열쇠”라고 조언했다. 데이터 거버넌스 활동에 CIO가 직접 참여하면 각 부서 책임자가 데이터 책임자를 지정하도록 설득하는 데 더 효과적이다. 시민 데이터 과학 역량에 대한 필요성이 크고 AI 기반 비즈니스 성과에 대한 기대가 큰 상황에서 조직 내 리더들이 책임을 회피하기는 쉽지 않다. 더욱이 일단 책임자가 지정되면 AI 거버넌스 참여나 AI 에이전트 시험 운영 등 다양한 협업 기회가 생긴다. AI 노출로 위험해진 지식재산권 직원의 생성형 AI 도구 무단 사용, 이른바 섀도우 AI는 많은 CIO가 우려하는 사안이다. 특히 승인받지 않은 공개 LLM을 사용하는 과정에서 분류되지 않은 데이터나 지식재산권이 노출될 가능성이 문제다. 직원이 데이터, 코드, 브랜드 가이드라인, 계약서, 민감한 문서 등을 AI 프롬프트에 사용하는 것도 문제지만, 데이터 과학자가 RAG(Retrieval Augmented Generation) 기반 LLM 학습이나 AI 에이전트 학습용 데이터에 승인 없이 지식재산을 포함시키는 경우도 마찬가지로 위험하다. 리미니스트리트의 글로벌 娇色导航조 로칸드로는 “데이터는 기업의 가장 가치 있는 자산이며, 그에 걸맞게 보호해야 한다”라며, “직원의 데이터 오용, AI 도구 남용, 보안 의식 부족을 경계해야 하며, 직원 교육 강화, 핵심 시스템 내 데이터 마스킹, 정기 보안 점검이 필수”라고 강조했다. 더모던데이터컴퍼니(The Modern Data Company)의 CEO 스루잔 아쿨라는 “마케팅팀은 챗GPT를 허가 없이 쓰고, 데이터 과학자는 손에 잡히는 모든 정보를 모델에 집어넣는 일이 비일비재하다”라며, “결국 민감 고객 정보가 공개 AI 도구에 흘러 들어갈 위험이 생기고, 娇色导航입장에서는 데이터 유출과 규제 위반이라는 리스크로 이어진다”고 지적했다. 이런 문제는 명확하고 실용적인 정책과 안전한 내부 대안 도입으로 해결할 수 있다. 아쿨라는 CIO가 신뢰할 수 있는 정제된 데이터셋에서 출발해 소유권과 거버넌스가 분명한 데이터 상품을 구축해야 한다고 조언했다. 이와 더불어 CIO는 데이터 리터러시(Data Literacy) 교육이나 누구나 아이디어를 제출할 수 있는 오픈 이노베이션 프로그램을 통해 이런 리스크를 오히려 학습과 혁신의 기회로 바꿀 수 있다. 현장 직원의 자발적인 참여가 늘어날수록, 조직은 더 많은 이니셔티브를 포착할 수 있다. 서드파티 데이터 소스 2025년 미국 기업은 마케팅 데이터에 약 261억 달러를 지출할 것으로 예상된다. 이 데이터는 주로 고객 세분화, 마케팅 캠페인 개인화, 효과 분석 향상 등에 활용된다. 내부 데이터 활용만으로도 규제와 거버넌스를 만족하기 어렵지만, 서드파티 데이터의 규제 준수를 추적하는 일은 훨씬 더 복잡하다. SOAX의 제품 책임자 루이스 라캄브라는 “서드파티 데이터 파이프라인이나 데이터 보강 서비스를 사용할 때, 해당 데이터의 수집 방식에 대한 검증 없이 신뢰하는 것이 가장 간과되는 리스크 중 하나이다. 불법적이거나 비신뢰적 방식으로 수집된 데이터는 규제 기관의 조사를 받거나 운영의 사각지대를 만들 수 있다”라고 경고했다. 서드파티 데이터의 규제 준수 여부는 최고 데이터 책임자가 관리하는 타협할 수 없는 거버넌스 기준이 돼야 한다. CIO는 이와 더불어 서드파티 리스크에 대응하기 위한 대안을 마련할 수 있다. 많은 기업이 실제로 활용되지 않거나 중복되거나 가치가 낮은 서드파티 데이터를 다수 도입하고 있다. 비용 절감을 모색하는 CIO라면 서드파티 데이터에 대한 비용 편익 분석, 활용도 평가, 리스크 정량화를 통해 저가치 고위험 소스를 제거하고 비용을 절감할 수 있다. 불완전한 데이터 파이프라인 가시성 많은 기업이 데이터 분석 플랫폼이나 문서 처리 도구 같은 사용자 분석 도구에 먼저 투자하고, 강력한 데이터 통합과 파이프라인 구축은 뒷전으로 미루는 경향이 있다. 하지만 실시간 데이터에 의존하는 부서가 늘면서 데이터 파이프라인의 신뢰성과 성능이 핵심 운영 과제가 되고 있다. 특히 데이터 관리자가 문제를 반복해서 수작업으로 수정해야 하거나 지연된 데이터로 인해 잘못된 의사결정이 내려지는 경우가 발생할 수 있다. 레코드포인트(RecordPoint)의 CTO 조시 메이슨은 “CIO는 조직의 신뢰도, 보안, 의사결정에 위협이 되는 데이터 관련 리스크에 는 민감하게 대응해야 한다. 파이프라인 지연, 데이터 드리프트, 장애, 민감 데이터의 위치 식별 등은 데이터 파이프라인과 사용 패턴 가시성이 낮을 때 발생하는 문제”라고 지적했다. 데이터옵스(DataOps)의 가시성은 파이프라인 모니터링, 자동 대응, 성능 추적을 포함한다. 주요 지표로는 파이프라인 신뢰도, 자동화 비율, 예외 발생률, 처리량 등이 있다. 다수의 데이터 소스를 통합하고 데이터 패브릭으로 접근을 중앙화하는 CIO라면, 데이터옵스 사고를 줄이는 것이 비용 절감에 직접적으로 도움이 된다. 더 중요한 이유는 데이터 통합 신뢰성이 떨어지면 조직 전체의 신뢰도도 낮아져, 각 부서 리더가 AI 및 데이터 기반 전략에 투자하는 데 주저할 수 있다는 점이다. 데이터 품질 격차 CIO는 데이터 관리자 지정을 통해 데이터 정제 절차를 자동화하고, 데이터 상태를 측정하는 등 데이터 품질 향상에 지속적으로 노력한다. 이 작업은 주로 ERP, CRM, 데이터웨어하우스 같은 정형 데이터에 집중돼 있다. 그러나 생성형 AI가 등장하면서 문서 저장소와 비정형 데이터까지 품질 관리 범위가 확장됐다. 프라이언(Pryon)의 CEO 크리스 말은 “RAG는 조직 지식에 접근할 수 있게 해주지만, 데이터 프라이버시, 환각, 통합 문제 같은 리스크도 따른다”라며, “확산 전에는 데이터 품질 확보, 거버넌스 프레임워크 수립, 평가 체계 마련이 필요하다. 진짜 가치를 창출하는 기업은 단순히 정보를 빠르게 찾는 것이 아니라, 혁신과 보호 사이의 균형을 통해 더 나은 결정을 내리는 데 성공하고 있다”라고 설명했다. 이런 데이터 품질 문제를 해결하려면, CIO는 원시 데이터를 데이터 레이크에 통합 저장하고, 정제 기능을 공유 서비스로 제공하며, 데이터 패브릭과 고객 데이터 플랫폼을 통한 접근 체계를 마련하는 방안을 고려해야 한다. 데이터 품질 및 관리 도구가 많아진 지금, 공유 서비스 방식은 비정형 데이터 정제 범위 확대와 AI용 고품질 데이터 확보라는 비즈니스 요구를 충족하는 효율적 방법이 될 수 있다. 품질 검증 없이 AI 결과에 의존하는 리스크 AI 거버넌스를 위한 일곱 가지 핵심 질문에는 비즈니스 가치, 도구 선택, 규제 준수, 데이터 거버넌스 등이 포함된다. 그중에서도 가장 중요한 질문이자 오늘날 가장 어려운 과제는 바로 ‘직원들이 LLM이나 AI 에이전트의 결과를 어떻게 검증하고 의심할 수 있을까?’라는 문제다. AI 에이전트를 개발하는 CIO에게는 이 질문이 더욱 중요하다. LLM 품질 보증은 아직 초기 단계이며, 수작업 테스트에 의존하는 경우가 많기 때문이다. 펜도(Pendo)의 최고 제품 책임자 트리샤 프라이스는 “CIO는 AI 결과의 정확성과 신뢰성을 지속적으로 모니터링해야 한다”라며, “AI 시스템은 결정론적이지 않기 때문에 품질 정의가 복잡하고, 엔지니어링, QA, 제품팀 간 경계가 모호해진다. 이에 따라 신뢰할 수 있고, 사용자 요구에 맞고, 실질적 성과를 유도하는 AI 기반 경험을 위해 협업이 더 중요해졌다”라고 강조했다. CIO는 그동안 QA 투자를 정당화하기 어려웠다. 반면에 개발자 채용이나 운영 및 보안 강화에는 투자 명분을 세우기가 비교적 쉬웠다. 그러나 AI 코드 생성기 활용이 늘고, IT 운영이 자동화되는 환경에서 QA 및 AI 테스트 역량에 투자할 여지와 필요성은 더욱 커지고 있다. CIO는 특히 지식재산권과 AI 신기술 관련 리스크에 대해 일정 수준의 편집증(paranoia) 상태를 유지하는 것이 건강하고 바람직하다. 가장 뛰어난 CIO는 단순히 리스크 완화 계획을 세우는 것을 넘어, 이를 전략적 기회로 전환할 방법을 끊임없이 모색한다.dl-ciokorea@foundryco.com ???? ???? ??? ??? IT ??? ???? ??? ????! ??? ??? ??? ?????. ????