?? ?? ??? ??? ????? ?? ????. 2022? 11? ?GPT? ????? ??? ?? ?? ??? AI? ????? ??? ? 대형 언어 모델(LLM)을 사용하여 수많은 데이터를 즉각적으로 수집할 수 있는 능력을 갖춘 생성형 AI 기술은 거대한 잠재력을 가진다. 속도, 정확성 및 철저함 면에서 이전 기술을 훨씬 능가 보고서, 계약 및 애플리케이션 코드를 생산할 수 있다. 극적인 생산성 향상과 잠재적으로 판도를 바꿀 수 있는 비즈니스 우위를 기대할 수 있는 것이다. 기술 부품 및 서비스 제공업체인 아브넷의 CIO인 찬은 “분명 직원들이 이것을 사용할 것이다. 우리가 이에 대해 아무것도 하지 않으면 직원들은 스스로 그것을 사용할 수밖에 없다”라고 말했다. 포레스터 리서치의 부사장 겸 수석 애널리스트인 미셸 괴츠도 같은 생각이다. 그녀는 “기회를 놓칠 수 있다는 우려가 있다. ‘사용하지 말라’고 말해도 직원들이나 고객들은 그것을 사용할 것이다. 판도라의 상자가 열렸다. 직원들이 무엇을 하고 있는지 숨길 필요가 없도록 직원들과 협력하는 것이 가장 좋다”라고 말했다. 그러나 생성형 AI의 사용은 민감하고 독점적인 정보를 누출할 수 있다. 그리고 이는 지적 재산 침해나 처벌로 이어질 수 있다. 게다가, 생성형 AI가 산출한 결과는 때때로 ‘조작’ 또는 ‘환각’으로 인해 거짓된 정보일 수 있다. 또 생성형 AI 모델은 무수히 많은 소스에서 끌어오기 때문에, 생성형 AI 산출물을 조직의 기업 콘텐츠에 통합하는 것은 저작권 침해로 이어질 수 있다. 이들 위험 중 일부는 현실이 되었다. 2023년 4월 삼성 직원들이 의도치 않게 민감한 내부 데이터를 이다. 이로 인해 삼성은 직원들의 생성형 AI 기술 사용을 일시적으로 금지하기도 했다. 이 사건으로 IT 리더들은 셰도우 AI의 임박한 상승에 대해 높은 경계심을 갖게 됐다. 투 트랙 전략 복잡한 상황에서 개입하지 않는 입장을 취할 수는 없었다. 대신, 그는 승인되고 안전한 애플리케이션을 신속하게 개발하고 시범 운영하는 동시에 엄격한 정책을 통해 생성형 AI 활용을 제한하는 투트랙 전략을 실행하고 있다. 그는 “누군가가 생성형 AI를 써보고 싶다면 요청서를 제출해야 하고 우리는 그것을 검토한다. 그리고 최소 기능 제품(MVP)을 만들어 내기 위해 그들과 협력할 것이다”라고 설명했다. MVP는 다시 개념 증명(POC)으로 진화할 수 있으며, 그로부터 일반적으로 전략적 파트너의 도움을 받아 생산 실행으로 발전할 수 있다. 이러한 초기 작업은 이제 거의 결실을 맺어가고 있다. 찬은 “연말까지 확실히 몇 가지 제품을 구현할 것으로 기대한다”라고 말했다. 다른 CIO들도 비슷한 전략을 채택했다. 일본에 본사를 둔 다국적 보험 회사인 토키오 마린 노스 아메리카의 수석 부사장 겸 CIO인 로버트 픽은 직원들에게 실험을 장려하면서도 각 활동이 모니터링되어야 한다는 입장이다. 픽은 “보험 업계의 경우 항상 타사 데이터를 포함한 각종 데이터를 사용한다는 점에서 다른 산업들과 다르다. 전문가들에게 올바른 툴과 지침을 제공하면 올바른 결정을 내릴 것이다”라고 말했다. 찬과 픽이 펼치는 노력에도 불구하고, 가트너는 비인가 사용을 예방하는 것이 불가능할 것으로 내다보고 있다. 2026년까지 직원의 5%가 생성형 AI를 무단 사용할 것이라고 2023년 3월 이 컨설팅 회사는 예측했다. 가트너의 수석 부사장이자 애널리스트인 아비바 리탄은 “보수적으로 잡은 수치다. 나는 직원들이 챗GPT를 사용하지 못하도록 막는 방법을 알고 싶어하는 사람들에게서 매일 전화를 받는다”라고 말했다. 많은 CIO는 조직 내 생성형 AI 사용을 허용하거나 장려하는 정책을 신속하게 이행하지 않으면 조직에서 혁신적인 기술에 대한 통제력을 잃게 될 것이라 점을 알고 있다. IDC에 따르면 CIO들은 이제 방관자에서 벗어나 이러한 행렬의 선두에 서고 있다. 2023년 3월에는 54%가 아직 생성형 AI와 관련하여 아무것도 하지 않고 있다고 답했지만 2023년 6월에는 23%만이 그렇다고 인정했다 [차트 참조]. IDC의 컨설팅 및 연구 부문 그룹 부사장인 다니엘 사로프는 “어떤 경우에는 차단하고 있고, 어떤 경우에는 정책을 채택하고 있으며, 또 다른 경우에는 의도적인 파일럿을 수행하고 있다”라고 전했다. 해커톤을 이용해 취약점 노출국가 보안 및 중요 인프라 분야 벤더인 파슨스에서도 초기 셰도우 AI 사례가 출현했다. 이로 인해 IT 전략, 제품 및 상용화 담당 부사장인 카렌 라이트와 파슨스의 사이버 보안 담당자가 대화를 나눴다. 이들은 보안 위험을 식별하기 위한 챗GPT 해커톤을 개최하기로 결정했다. 라이트는 “이 기술의 영향을 이해하기 위한 정말 좋은 접근 방식이었다”라고 말했다. 해커톤을 통해 라이트와 파슨스의 동료 IT 리더들은 챗GPT가 직원들이 이미 사용 중인 일부 웹 기반 툴(어도비 아크로뱃 온라인 등)과 질적으로 다르지 않다는 사실을 알게 되었다. 그 결과, 파슨스는 데이터 손실 방지(DLP) 툴을 사용하여 생성형 AI를 통한 데이터 유출을 방지하기로 결정했다. 라이트는 “인공지능의 사용을 수용하고 가속화하는 동시에 DLP 툴로 관리하여 보안을 보장하는 것이 우리의 목표였다”라고 말했다. 교육 정책도 마련했다. 라이트는 “회사를 보호하면서 목표를 달성할 수 있는 모범 사례와 툴을 직원들에게 교육하는 데 중점을 두고 있다”라고 말했다. 리스크를 아는 보험사들 글로벌 보험사인 TMG의 국제 부서는 생성형 AI를 실험해 왔다. 픽은 “우리는 엄청난 양의 개인 실험을 진행해오고 있다. 하지만 우리는 리스크를 인식하고 있었기 때문에 챗GPT에 활용하는 데 서두르지 않았다. 교육과 모니터링은 민첩하게 준비했다”라고 말했다. 픽에 따르면 TMG는 여러 회사 내에 워킹 그룹을 구성하여 편지 초안작성과 콘텐츠 마케팅과 같은 사용 사례를 검토하여 사람이 프로세스를 주도할 수 있도록 했다. 또 다른 잠재적인 생성형 AI 사용 사례는 시장 상황과 성과에 대한 보고서 초안을 작성하는 것이다. 픽은 “여러 사업부를 가진 회사라면 어디나 정보를 요약하는 생성형 AI의 능력에서 이익을 얻을 수 있다. 언더라이팅 메뉴얼을 일반 언어로 요약하는 데 며칠이나 몇 주가 걸리는 것이 아니라 몇 초 또는 몇 분이면 초안을 작성할 수 있고, 이를 통해 앞으로는 인력 자원을 더 효율적으로 집중할 수 있을 것이다”라고 말했다. 픽에 따르면 생성형 AI는 문서 콘텐츠를 수집하고 생성하는 것 외에도 애플리케이션 개발에서 큰 잠재력을 보여준다. 한 언어에서 다른 언어로 변환하는 작업의 경우 약 60%의 정확도를 가지고 거의 실시간으로 번역하고 주석까지 포함할 수 있다. 픽은 “프로그래머는 동일한 작업을 수행하는 데 몇 주가 걸릴 수 있다. 향후 몇 년 동안 거대한 생상성 향상을 기대하고 있다”라고 말했다. 또한 사설 LLM의 사용은 TMG와 같은 보험 제공업체에게 바로 매력적으로 다가온다. 픽은 “사람이 알아채지 못하는 것을 찾아낼 수 있을 것이라는 기대가 있다. 클라우드 데이터센터를 필요로 하지 않는 ‘작은 LLM’에도 관심이 있다. 우리는 데이터를 관리할 수 있도록 차단된 샌드박스를 사용할 것이다”라고 말했다. 그러나 이 CIO는 사설 LLM의 경우에도 규제가 적용된다는 점을 언급했다. 그는 “TMG와 같은 글로벌 기업이 사설 LLM을 사용하려면 유럽의 GDPR과 같은 특정 규제가 적용되는 영역 내에 있는 테넌트 시스템에 데이터를 로드해야 한다”라고 설명했다. 개념증명으로 구축하기안전과 기회를 모두 추구하는 찬의 노력은 여러 검증 프로젝트에서 가능성을 보여주었다. 찬은 “보유하고 있는 모든 제품 정보로 애저 오픈AI를 학습시키고 있으므로 비즈니스 담당자가 특정 커넥터를 빠르게 검색해 제고 상황을 빠르게 파악할 수 있다. 더 이상 자재 팀에 연락할 필요가 없으므로 시간이 절약된다”라고 전했다. 애저 오픈AI는 사용자 맞춤형 계약도 빠르게 생성한다. 찬은 “지난 10년간의 계약을 저장소에 로드 하면 ‘특정 프로젝트에는 이런저런 조건의 계약이 필요하다’라고 알려주면서 몇 초 안에 완전한 계약서를 만들어낸다”라고 말했다. 영업 담당 임원이 계약서를 검토하고 조정한 후 고객에게 보내면 된다. 빠른 처리 시간 덕분에 잠재 고객을 더 빨리 매출로 전환하고 고객 만족도도 높일 수 있을 것으로 기대된다. 이 과정은 제안요청서(RFP)와 유사하다. 비즈니스 애널리스트가 필요한 사항을 특정하면 생성형 AI가 몇 초 내에 RFP를 생성하는 식이다. 찬은 “비즈니스 애널리스트가 검토하고 수정하기만 하면 된다. 이는 엄청난 생산성 향상이다”라고 말했다. 엔지니어는 또한 생성형 AI를 통해 자재 명세서의 특정 부품을 교체하여 회로 기판의 물리적 설치공간을 줄이는 동시에 시장 출시 리드 타임을 단축하는 등 고객의 요구 사항에 대한 가능한 해결책을 제시할 수 있다. 과제이제 CIO들은 생성형 AI의 생산성 향상 효과로 인해 제어가 오히려 어려워지는 역설이 나타나고 있음을 깨닫고 있다. 찬은 “하지만 회사 데이터의 안전성을 보장하면서도 IT 및 비즈니스 직원이 혁신할 여지가 충분히 크다”라고 말했다. 픽에 따르면, 생성형 AI는 인간 노동자들을 쓸모없게 만드는 것이 아니라, 생산성을 높일 뿐이다. 그는 “사람을 대체하는 기술이라고 보지 않는다. 여전히 인간 관리인을 필요로 한다. 하지만 그것은 일을 가속화하고, 고된 일을 없애고, 우리의 직원들이 더 고차원적인 일을 할 수 있게 해준다”라고 말했다. 무엇보다 중요한 것은 생성형 AI가 이전에 과대 포장된 기술보다 훨씬 더 많은 잠재력을 가지고 있다는 점이라고 픽은 강조했다. “이것은 차세대 블록체인이 아니라 정말 가치 있는 무언가가 될 것이다”라고 그는 표현했다. 포레스터의 괴츠는 생성형 AI에 대한 정책을 수립할 때 해야 할 일과 하지 말아야 할 일을 명확히 설정할 필요가 있다고 주문했다. 그녀는 찬과 마찬가지로 승인된 생성형 AI 애플리케이션과 데이터 세트는 직원에게 이용하게 하고, 데이터를 위험에 빠뜨릴 수 있는 AI 애플리케이션과 사용 사례는 금지하는 투트랙 전략을 따를 것을 권장한다. 이러한 가이드라인을 따르면 조직에서 생성형 AI를 안전하게 셀프 서비스로 사용할 수 있다. IDC의 사로프는 생성형 AI 기능을 개발하거나 배포할 때 생성형 AI 도구의 제어 기능과 AI 툴 사용으로 인해 발생할 수 있는 리스크를 평가하도록 권장한다dl-ciokorea@foundryco.com ???? ???? ??? ??? IT ??? ???? ??? ????! ??? ??? ??? ?????. ????