생성형 AI와 관련된 각종 과장된 요소가 존재하지만, 기업이 생성형 AI를 도입하면 분명 여러 이점을 누릴 수 있다. 생성형 AI 성과를 높이기 위해 기술 리더가 알면 좋은 5가지 팁을 소개한다.
생성형 AI는 150년 전 등장한 전구와 비교되곤 한다. 등장한 후 엄청난 관심을 받고 빠르게 대중화된 부분이 비슷하기 때문이다. 전구가 1879년 발명되기 전에 전기 과학(1831년)은 활발히 연구되었는데, 전구 덕에 전기의 활용도를 대폭 높일 수 있었다. 그런 면에서 AI가 전기라면 생성형AI는 전구로 비유할 수 있다.
기술이 실험 단계에서 대중으로 옮겨갈 때, 강력하고 흥미로운 사례가 함께 생겨난다. 빠르게 도입될수록 기술에 대한 기대감은 더욱 높아진다. 실제로‘2023년 이머징 테크놀로지 하이프 사이클’ 보고서에서 생성형 AI의 기대감이 정점에 달했다고 평가하기도 했다.
챗GPT는 작년 단 두 달 만에 월간 활성 사용자 수가 1억 명을 넘어섰으며, 기술 도입 라이프사이클에서 차지하는 위치가 하이프 사이클에서 차지하는 위치를 앞지르고 있다. 현재 일반 인구의 거의 절반이 생성형 AI를 사용하는 등 생성형 AI가 주류 기술로 여겨지고 있지만, 여전히 기대감만 높을 뿐 구체적인 성과를 보진 못하고 있다. 자세히 들여다보면 생성형 AI는 아직 ‘전구’라기 보다 ‘가스등’ 단계에 머물러 있는지도 모른다. 그렇다고 실망할 필요는 없다.
생성형 AI의 시대에서 우리는 최첨단 기술도 잘못 작동 될 수 있다는 사실을 발견하고 있다. 환각 현상이나 민감한 정보가 외부로 유출 되는 등 최첨단 기술도 새로운 방식으로 실수를 저지르고 있는 것이다.
CIO가 다음 5가지 팁을 활용하면 생성형 AI의 과장된 영역을 살펴보면서 AI에 대한 실망을 깨달음으로 보다 쉽게 전환할 수 있을 것이다.
팁 1. 고객, 직원, 이해관계자에게 현실적으로 설명하기
생성형 AI와 관련 솔루션의 혁신적 특성을 알리려면 단점도 반드시 함께 지적해야 한다. 컨설팅 및 기술 공급업체는 종종 생성형 AI의 혁신성을 강조하지만 그 단점에는 관심을 덜 기울인다. 물론 많은 업체가 이러한 문제를 해결하고 다양한 플랫폼, 솔루션, 툴킷을 제공하기 위해 노력하고 있다.
현실을 직시한다는 것은 장단점을 이해하고 그 정보를 고객, 직원 및 최고 경영진의 동료와 공유하는 것을 의미한다. 그렇게 하면 그들은 여러분의 솔직함에 감사할 것이다. 명확하게 설명하고 이해할 수 있는 장단점 목록을 작성하자. 이미 많은 AI 전문가가 AI에는 구체적인 원리를 알 수 없는 일명 ‘블랙박스 문제’나 인간의 잘못된 주장을 따르는 취약성, 환각 등 몇 가지 단점을 지적했다.
팁 2. 생성형 AI 전용 사내 사용 정책 수립하기
기업 사용 정책과 관련 교육은 중요하다. 직원에게 기술의 위험과 함정에 대해 교육하고, 기술을 최대한 활용할 수 있는 규칙과 권장 사항을 제공하면 조직 내 위협 요소를 없애고 비즈니스 가치를 극대화할 수 있기 때문이다. 정책을 개발할 때는 모든 관련 이해관계자가 함께 해야 한다. 또한 현재 조직 내에서 AI가 어떻게 사용되고 있으며 앞으로 어떻게 사용될지 조직 전체가 광범위하게 알고 있어야 한다.
정책은 사람들이 계속 찾아볼 수 있도록 문서로 만들고 필요에 따라 적절한 주기로 업데이트해야 한다. 이런 정책을 마련하면 계약, 사이버 보안, 데이터 개인정보 보호, 기만적인 거래 관행, 차별, 허위 정보, 윤리, IP 및 검증과 관련된 여러 가지 위험을 피할 수 있다.
팁 3. 각 사용 사례에 대한 구체적인 가치 평가하기
사람들은 AI가 출력한 ‘텍스트’에 대해서 신뢰하는 경향이 있다. 보통 문법적으로 맞는 문장을 출력하기 때문이다. 거기다 심리적으로 많은 이가 생성형 AI 뒤에 강력한 지능이 있을 거라고 믿기도 한다. 실제로 생성형 AI는 무엇이 참인지 거짓인지 이해하지 못하는데도 말이다.
생성형 AI로 좋은 성과를 내는 사례는 분명 존재한다. 하지만 실제로 조직에서 도입하려면 사례를 각각 검토해야 한다. 예를 들어, 생성형 AI는 일반적으로 기술적 예측을 만드는데 서툴다. 예측 결과는 우리가 이미 알고 있는 내용이거나 외부에서 가져온 표절 문구일 수도 있다. 재작성 또는 문구 수정 도구를 사용하면 상황이 더 나빠질 수 있다. 팀은 실제 예측을 하기 보다 관련 도구를 사용하는 데 더 많은 시간을 허비할 수 있다. 활용하면 좋은 사례를 신중하게 선택하고 명확한 이점이 있는 경우에만 생성형 AI를 사용하자.
팁 4. 엄격한 테스트 기준 유지하기
조직 내 점점 더 많은 인력이 생성형 AI를 활용할 것이다. 따라서 직원에게 생성형 AI에 대한 장단점에 대해 교육하고 사내 사용 정책을 적극 활용하는 것은 중요하다. 생성형 AI가 많이 채택됨에 따라 우리는 모두 효과적으로 테스트하고 올바른 활용 과정을 습득해야 한다.
IT 부서든 비즈니스 부서든 조직 내부에서 테스트와 실험을 강조하고 충분한 시간을 확보해야 한다. 그 이후에 실제 제품에 생성형 AI를 접목해야 한다. 직원이 경험과 교훈을 공유할 수 있는 내부 실무 커뮤니티를 구축한다면, 조직 전체의 인식을 높이고 모범 사례를 홍보하는 데 도움이 될 수 있다.
팁 5. 기술이 잘못되었을 때를 대비한 계획 수립하기
을 통해 우리는 교훈을 얻었다. 기술 시스템으로 누군가의 인생을 파탄 낼 수 있다는 것이다. 영국 우체국 스캔들이란 영국 우체국에서 1999∼2015년 사이에 사용된 후지쯔의 회계 프로그램의 오류로 우체국 점주 등 700명이 횡령 혐의로 유죄 판결을 받고, 실제 짓지도 않은 죄로 억울하게 관련자가 감옥에 가고 횡령액을 갚아왔던 사건이다. 심지어 해당 프로그램은 AI가 같은 최첨단 기술을 사용하지 않았지만 많은 이가 해당 시스템이 정확하다고 판단하며 수백 명의 직원이 표적이 됐다. 해당 사건으로 15년 동안 700명이 넘는 영국 우체국 집배원이 사기 혐의로 오해를 받고 평판에 심각한 타격을 입었으며, 일부는 이혼, 심지어 극단적 선택까지 했다.
따라서 AI가 잘못 판단할 경우에 대비해 계획을 세워야 한다. 가령 기업의 사용 정책은 안전장치를 마련하지만, 문제가 발생했을 때 IT의 거버넌스 프로세스는 어떻게 상황을 모니터링하고 대응할 수 있을지 생각해 봐야 한다. 구체적인 계획이 마련되어 있는지, 거버넌스 프로세스는 정답이나 결정의 옳고 그름을 어떻게 구분할 지 알아봐야 한다. 실수가 발생했을 때 비즈니스에 미치는 영향은 무엇이며 이를 수정하는 것이 쉬운지 어려운지도 미리 대비해야 한다.
생성형 AI가 빛을 발하는 순간을 우리는 곧 맞이할 것이다. 다만 그전에 환멸의 골짜기를 지나고 깨달음의 경사를 올라야 한다. 그래야만 마침내 생산성 증대라는 고원에 도달할 수 있다. 그 속에서 느끼는 좌절감 그리고 경험하는 실험, 배움은 생성형 AI 시대로 가는 길에 마주할 수 밖에 없는 요소다.
dl-ciokorea@foundryco.com