??? AI? ?? ??? ??? ???? ??? ??? ? ?? ???? ?? ? ?? ? ??. ??? ??? AI? ?? ?? ??? ??? ?? ? ??? ? ??? ???? ??? ???? ??? ?? ???? ?????? ???? ???. 지금까지 생성형 AI에 대한 주요 불만은 자신의 저작물이 허가 없이 대규모 언어 모델(LLM)을 학습하는 데 사용되는 것에 불만을 품은 작가와 아티스트들이 제기해 왔다. 11월 초 수개월간 이어진 작가와 배우들의 파업을 해결하기 위해 헐리우드 스튜디오들은 AI 도구 활용을 제한한다는 약속을 제시해야 했다. 그러나 크리에이티브 산업 외의 기업들도 생성형 AI를 사용할 때 주의해야 한다. 당혹스러운 역효과를 낼 수 있고 법적 분쟁으로 이어질 수 있기 때문이다. 많은 기업이 저작권을 우려하는 분야로 꼽고 있다(). 그러나 그것만이 유일한 문제는 아니다. 평판 손상최근 가디언의 경우가 생성형 AI를 사용하면 안 되는 일을 보여주는 교과서적인 사례였다. 마이크로소프트의 AI 뉴스 시스템이 여성의 죽음에 대한 추측을 유도하는 무분별한 여론조사를 자동으로 생성하여 뉴스 기사 중간에 삽입했다. 가디언은 이로 인해 마이크로소프트가 자신들에게 ‘심각한 평판 손상’을 입혔다고 주장했다.빙(Bing) AI 뉴스가 민감한 뉴스 기사에 모호한 여론조사를 추가한 것은 이번이 처음이 아니다. 이 AI 도구는 논란이 될 만한 서베이 문항을 다수 제작한 바 있다. 결국 사망하게 된 여성에 대한 연명 조치가 옳은 결정인지 그른 결정인지, 국립공원에서 발견된 유골의 신원이 정확하게 식별되었는지, 화재로 50채의 주택이 소실된 지역의 주민들이 긴급 대피 권고를 따랐어야 하는지, 화재로 2명의 어린이가 사망했을 때 어린이 화상 피해자를 위한 모금이 독자들에게 ‘희망과 지지’를 느끼도록 하는지 등을 묻는 여론조사를 만들어 논란을 일으켰다.이 밖에 AI 기반 빙 챗의 광고에는 맬웨어 링크가 포함되어 있기도 했다. 또 마이크로소프트의 AI 도구는 오타와 방문객에게 푸드뱅크에서 식사를 하도록 제안하고, 바이든 대통령을 비롯한 정치인에 대한 가짜 뉴스를 강조하기도 했다. 이 밖에 한 여배우가 특정 스포츠 코치를 폭행한 것처럼 뉴스의 세부사항을 왜곡하기도 했다. 해당 코치는 오히려 말을 학대한 혐의를 받은 인물이었다.챗GPT와 같은 생성형 AI 모델이 과거의 AI 오류와 다른 점은 대부분의 경우 적어도 결과를 확인할 기회가 있었다는 점이다. 하지만 이번 가디언의 여론조사는 사람의 승인 없이 자동화된 시스템에 의해 게시된 것이라는 점에서 이색적이다.마이크로소프트는 이 여론조사를 오류라고 규정하며 조사를 약속했다. 그러나 이미 AI 시스템과 상호 작용 여부를 사용자에게 알리라는 회사의 을 어긴 상태로 관측된다. 또 책임감 있는 AI 사용에 대한 회사의 을 위반한 것으로 보인다. 마이크로소프트는 또한 애저 오픈AI 고객에게 제공하는 조언을 통해 ‘모든 주제에 대한 콘텐츠’를 제작하거나 ‘사실적으로 정확한 최신 정보가 중요한 시나리오’에서 사용하지 않도록 경고하고 있기도 하다. AI의 과도한 사용애저 오픈AI에 대한 는 서비스가 부적절하거나 모욕적인 콘텐츠를 생성할 수 있을 뿐만 아니라 관련성이 없거나 허위이거나 신뢰할 수 있는 데이터를 잘못 표시하는 응답을 생성할 수 있다고 경고하고 있다. 또한 피해야 할 몇 가지 시나리오(정치 캠페인, 사용 또는 오용이 생명이나 법적 지위에 영향을 미칠 수 있는 매우 민감한 사건 등)와 의료, 교육, 금융, 법률 등 위험이 높은 영역에서 주의해야 할 몇 가지 시나리오를 나열한다. 그러나 특정 영역에 국한된 질문은 포괄적인 질문보다 문제가 있는 긴 답변이 나올 가능성이 적다.마이크로소프트는 생성형 AI가 부적절하다고 생각하는 특정 영역을 밝히지 않고 대신 콘텐츠 제작, 언어 요약 또는 개선, 코드 생성, 시맨틱 검색 등 성공적으로 활용되는 영역의 목록을 제공했다. 동시에 회사 대변인은 이렇게 말했다: “우리는 AI가 엄청나게 강력해진 세상에 살고 있으며, AI는 놀라운 일을 할 수 있다. 하지만 이 기술은 성장과 발전의 여지가 충분한 여정이라는 점을 이해하는 것이 중요하다. 이러한 구분은 매우 중요하다.”생성형 AI로 생성된 혼란스럽고 잘못 작성된 콘텐츠는 이미 비즈니스 환경에서 일반적인 컨퍼런스 요약, 블로그 게시물, 슬라이드 데크 등으로 나타나고 있다. 정작 더 잘 알아야 할 관리자가 결재를 한다는 점이 간과되고 있다. 전문 작가나 보안 교육자들이 생성형 AI가 만든 콘텐츠(어색한 손 모양이 대표적이다)를 제출하는 사례가 늘고 있다. 앞으로 이렇듯 말도 안 되는 일이 일반화될 것이며, 기업들은 평판이 걸려 있는 만큼 경계해야 할 것이다.무분별한 활용은 내부적으로도 부적절할 수 있다. 가령 설문조사와 퀴즈는 긴 회의와 팀 채팅에 활기를 불어넣어주기에 생성형 AI가 논의된 내용에 기반해 서베이나 퀴즈를 생성하도록 하고 싶은 유혹을 느낄 수 있다. 그러나 누군가가 가족의 질병이나 반려동물의 죽음에 대해 언급한 내용을 생성형 AI가 다루면 큰 문제가 발생할 수 있을 것이다.산업 인텔리전스 플랫폼 글로벌데이터의 파괴적 기술 부 프로젝트 매니저인 사우라 다가는 “일반적으로 공감, 도덕적 판단, 인간의 뉘앙스에 대한 깊은 이해가 중요한 상황에서는 생성형 AI가 적합하지 않다”라고 강조했다. 그가 제시하는 민감한 영역의 목록은 마이크로소프트의 지침과 유사하다. “오류로 인해 법적, 재정적, 건강 관련 중대한 결과를 초래할 수 있는 고위험 의사 결정은 AI에 적합하지 않을 수 있다”라고 그는 말했다.멀티모달 모델에 대한 연구가 더 성숙하기 전까지는 잘못된 캡션으로 인해 사진이 불쾌감을 줄 수 있다. 이미지 생성 모델은 모든 간호사는 여성이고 모든 CEO는 남성이라고 가정하기 쉽다. 즉 어떤 시나리오에서든 텍스트와 이미지를 혼합하는 생성형 AI에 주의하는 것이 중요하다.델 테크놀로지(고객이 마이크로소프트 365 코파일럿 또는 라마 2와 같은 오픈 액세스 모델을 사용하여 AI 시스템을 구축하는 데 도움을 주는 서비스를 제공)의 AI 전략 수석 부사장 매트 베이커는 “이전에는 존재했지만 제대로 해결되지 않았던 문제를 생성형 AI가 증폭시키고 있다. 예를 들어 인사 및 채용과 같이 알고리즘의 편향성이 문제가 될 수 있는 프로세스와 워크플로우를 생각해 보라. 조직은 위생, 우선순위, 데이터 민감도를 정직하게 살펴서 최대한의 보상을 얻고 위험을 최소화할 수 있는 영역에 생성형 AI 도구를 도입해야 한다”라고 경고했다.AI가 항상 옳다는 가정인상적이긴 하지만, 생성형 AI 도구는 본질적으로 확률론적이다. 즉, 틀리는 경우가 있으며, 정확하지 않거나 불공정하거나 불쾌감을 줄 수 있는 결과가 나올 수 있다. 그럼에도 불구하고 자신감 있고 설득력 있는 언어로 표현되어 있다는 위험이 있다.핵심은 바로 사용할 수 있는 결과를 기대하지 말고, 생성형 AI가 유용하게 잘못될 수 있는 방식을 인식하는 데 주의를 기울이는 것이다. 완전히 구워진 완벽한 아이디어를 만들어내는 것이 아니라 새로운 아이디어를 자극하는 브레인스토밍 도구로 활용하라는 이야기다. 이것이 바로 마이크로소프트가 대부분의 생성형 AI 도구에 오토파일럿이 아닌 코파일럿을 채택한 이유다. 올여름 인스파이어 컨퍼런스에서 CEO 사티아 나델라는 “인간을 참여시키고 인간이 항상 모든 작업을 도와주는 강력한 코파일럿을 통해 제어할 수 있도록 설계하는 것이다”라고 말했다. 더 나은 결과를 얻기 위해 프롬프트를 실험하는 방법을 배우는 것은 생성형 AI를 도입하는 데 있어 핵심적인 부분이므로 코파일럿 랩과 같은 도구는 직원들이 이러한 기술을 습득하는 데 도움이 될 수 있다. 마찬가지로, 프로세스를 자동화하려고 시도하기보다는 직원들이 AI가 생성하는 결과를 실험하고 평가하도록 장려하는 자체 생성형 AI 도구에 대한 워크플로우를 만들도록 한다. AI 제안을 검토하는 사람이 상황에 대해 어떤 정보를 가지고 있는지, 그리고 정확하고 적절한지 확인하지 않고 주어진 첫 번째 옵션을 받아들여 시간을 절약하기보다는 결과를 검토하고 인용된 출처를 확인하도록 하는 인센티브가 무엇인지 고려해야 한다는 점을 기억할 필요가 있다. 사용자는 생성형 AI의 제안과 결정에 대해 충분히 이해하고, 그 결과가 어떤 결과를 초래할 수 있는지 알고 다른 사람에게 정당화할 수 있어야 한다. 영국 정보위원회(Information Commissioner’s Office)는 “조직이 AI 지원 결정을 설명하지 않으면, 규제 조치, 평판 손상, 대중의 불신에 직면할 수 있을 것이다”라고 경고했다. 매번 여러 가지 대안을 제시하고 제안을 해석하는 방법을 보여주는 것도 도움이 될 수 있으며, 특정 답변을 제공하는 이유를 설명하도록 지시하는 프롬프트를 사용하는 것도 좋다. 또한 생성형 AI가 주요 정보의 출처를 인용하도록 하는 것 외에도 날짜, 통계, 정책, 판례 등 다시 확인해야 할 중요한 요소를 강조 표시하는 방법을 고려하도록 한다. 하지만 궁극적으로는 생성형 AI가 인간의 창의력이나 판단력을 대체하는 것이 아니라 아직 검증이 필요한 유용한 도구로 여겨지는 문화를 구축해야 한다. 다가는 “생성형 AI나 다른 형태의 AI는 인간의 의사결정을 보강하는 데 사용되어야지, 그 한계로 인해 해를 끼칠 수 있는 상황에서 인간의 의사결정을 대체해서는 안 된다. 인간 리뷰어는 AI 결과를 액면 그대로 받아들이는 것이 아니라 비판적으로 평가하도록 훈련받아야 한다”라고 지적했다. 사람의 검토가 포함된 프로세스와 AI 제안에 대한 실험 및 철저한 평가를 장려하는 것은 물론, 적절하지 않은 경우 작업이 완전히 자동화되는 것을 막기 위한 가드레일도 마련해야 한다. 그는 “예를 들어, AI가 회사 언론 브리핑을 생성할 수도 있지만 선택한 언론사 및 출판사와의 콘텐츠 공유는 인간 편집자만 승인할 수 있다”라고 덧붙였다. 새로운 코드 베이스를 탐색하고, 상용구 코드를 채우고, 함수를 자동 완성하거나, 단위 테스트를 생성하는 등 생성형 AI를 사용하면 개발자의 생산성이 향상될 수 있다. 이러한 추가적인 생산성을 활용하면서도 사람의 검토 없이는 제작 환경에 코드를 배포하지 않기로 결정하는 것이 바람직하다. 기업은 선택의 결과에 대해 책임을 져야 하며, 여기에는 부적절한 영역에 AI를 배포하는 것도 포함된다고 콜로라도에 본사를 둔 컨설팅 회사인 세이지블의 글로벌 CTO이자 설립자인 앤디 만은 말한다. “고객은 데이터 유출이 발생했을 때 ‘우리 AI 도구의 잘못’이라는 이유만으로 기업의 책임을 면해주지 않는다”라고 그는 강조했다. AI 감추기직원이든 고객이든 책임감 있는 시스템 사용을 보장하는 것이 중요하며, 투명성은 그 중 큰 부분을 차지한다. 내부 회의 요약, 마케팅 메시지, 챗봇 응답 등 콘텐츠에서도 AI 시스템에 의해 생성되는 시점을 명확히 파악해야 한다. 챗봇과 같은 자동화된 시스템에 사용자가 질문을 사람에게 에스컬레이션 할 수 있는 ‘오프 램프’를 제공하도록 한다. 다가는 “고객은 특히 민감한 영역에서 생성형 AI와의 상호 작용을 거부할 수 있는 옵션이 있어야 한다”라고 말했다. AI가 모든 문제를 해결할 수 있다고 가정비즈니스에서 생성형 AI 사용이 증가함에 따라 AI가 제안하는 내용에 대해 사람들이 스스로 판단해야 한다는 인식도 커지고 있다. 작년 ‘’에서 IT 직원 10명 중 8명이 그렇게 답했고, ‘’에서는 90%가 조금 넘는 직원이 그렇게 답했다. 특히 IT 운영과 같이 예측 가능하고 바람직하며 검증 가능한 결과를 생성하는 데 사용할 수 있는 도메인별 학습 데이터가 제한되어 있는 경우 학습 데이터가 충분하지 않으면 부정확한 결과가 나오기 쉽기 때문에 이러한 주의는 정당하다고 만은 말했다. 그는 “놓치거나 문서화되지 않은 지식으로 새로운 문제와 알 수 없는 원인을 다루는 사용 사례에서는 생성형 AI의 의미가 떨어질 것이다. 노출되지 않은 인류의 어떤 부족이 가진 지식이 유일한 잠재적 입력이라면 LLM을 교육하는 것은 불가능하다”라고 경고했다. 하지만 그는 생성형 AI를 조력자로 활용할 수 있는 기회도 있다고 덧붙였다. 그는 “정의된 분야와 지식 상점에서 ‘알려진 좋은’ IT 운영이 어떤 모습인지 학습하고, 알려진 문제를 인식하고, 알려진 원인을 진단하고, 알려진 비효율을 파악하고, 알려진 해결책을 통해 대응하도록 엔진을 훈련시킴으로써 조언자 또는 능동적인 전문가가 될 수 있다”라고 말했다. 하지만 새로운 것처럼 보이는 일부 IT 문제는 익숙한 프로세스와 솔루션으로 해결할 수 있지만, 특정 문제는 미리 알기는 어려울 것이다. 만은 “생성형 AI는 무언가를 모른다고 말하는 경우는 거의 없다. ‘알 수 없는 미지의 문제’를 해결하려고 할 때 오해의 소지가 있거나 가짜, 잘못된, 심지어 악의적인 결과를 내놓을 수 있다는 것을 알아야 한다”라고 말했다. 업무를 오히려 늘릴 수도생성형 AI로 제작된 콘텐츠가 분명 유용할 수 있다. 단 너무 쉽게 만들 수 있기 때문에 이를 검토하고 그에 따라 조치를 취해야 하는 사람들의 업무가 오히려 늘어날 수도 있다. 저품질의 AI가 작성한 기사를 너무 많이 받는다고 출판사 편집자들은 언급하곤 한다. 도움이 되지 않거나 관련성이 없거나 완전히 틀린 경우가 많다는 것이다. 기술 용어, 용례, 복잡한 문장 구조, 정확하지만 단어가 특이한 방식으로 사용되는 등의 문제도 흔하다. 생성형 AI가 실제로 어떤 분야에 기여할 수 있는지 평가할 때는 엄밀해야 한다. AI 도구를 도입할 때 가장 중요한 부분은 오류를 매번 개별적으로 수정하는 것 이상으로 오류를 처리할 수 있는 프로세스를 갖추는 것이다. 생성형 AI가 실수를 통해 학습하거나 매번 동일한 결과를 제공할 것이라고 가정해서는 안 된다. 그것이 중요하다면 프롬프트 엔지니어링과 필터를 사용하여 가장 중요한 영역에서 결과를 제한해야 한다. 또한 계획에 없던 영역과 프로세스에서 정확도가 떨어질 수 있는 생성형 AI를 사용할 때도 대비가 필요하다. 다시 강조하지만, 투명성이 핵심이다. 직원들은 생성형 AI를 사용할 수 있는 시기와 사용 사실을 공개하는 방법에 대한 회사 정책을 알고 있어야 한다. 또한 엔터프라이즈 채팅 시스템과 동일한 방식으로 에 생성형 AI 사용을 포함하는 방안도 검토할 만하다. 기업들은 보다 시급하게 이러한 정책을 수립해야 할 수도 있다. 2023년 봄 테크널리시스 리서치가 조사한 미국 기업 1,000곳 중 88%가 이미 생성형 AI를 사용하고 있었지만, 얼리어답터 중 공식적인 정책을 가지고 있는 기업은 7%에 불과했다. 최근 에서 비즈니스 리더의 4분의 1 이상이 AI 거버넌스 및 위험 관리가 없기 때문에 기술을 구현하고 확장하는 데 어려움을 겪고 있다고 답했다. 초기에는 기업 데이터의 기밀성에 대한 우려가 가장 컸지만, 평판 손상도 우선적으로 고려해야 할 사항이다. 또한 절반 이상이 숙련된 인력의 부족을 가장 큰 장벽으로 꼽았는데, 이는 주로 개발자와 데이터 엔지니어를 지칭한다. 하지만 기술 수준이 낮은 비즈니스 사용자도 AI 도구에 질문을 신중하게 투입하고 결과를 평가 및 검증할 수 있는 기술이 필요하다. dl-ciokorea@foundryco.com ???? ???? ??? ??? IT ??? ???? ??? ????! ??? ??? ??? ?????. ????