娇色导航

????

??? ??

?? | ?? ?? ?? ???··· AI? ‘??’ ??, ?????

??
2024.09.025?

AI? ?? ??? ? ??? ????. ??? ?? ?? ??? AI? ???? ?? ?? ??? ???? ???

“사람들의 문제는 진실의 영역이 언제나 그들의 환영 안에 있다고 믿는 것이다”라는 에이브러햄 링컨의 명언이 있다. 이는 다시 말해 사람들의 신념이 모두 진실에 근거한 것은 아니라는 의미이기도 하다. 사람이 만들어 낸 AI 솔루션에는 당연히 이런 문제가 스며들 수 있다. 

이제 사람들은 사회적, 문화적, 성별 편견 문제에 대해 잘 알고 있다. 아마존(Amazon)은 특히 이를 대표하는 행적으로 찬사를 받아왔다. 얼마 전에는 AI 기반의 채용 도구가 성 중립적인 방식으로 기술직 후보자를 선별하지 못했다는 이유로 폐기되기도 했다. 역사적으로 남성 개발자가 주로 채용됐기 때문에 AI 기반 도구도 여성을 간과한 채 남성 개발자를 상위권 후보로 올린 것이었다.

제대로 작동할 경우에 AI는 비할 데 없는 효율성과 객관성을 제공해 혁신을 일으킬 수 있다. 그러나 잘 문서화돼 있고 해결 가능한 편견의 이면에는 미묘하지만 우려스려운 문제인 ‘아첨(sycophancy)’ 문제가 남아 있다. 자주 간과되는 이 문제는 대규모 언어 모델(LLM)을 비롯한 AI 시스템에 침투해 결과의 무결성과 공정성을 훼손할 수 있다.

디지털 비서는 사람들의 의견에 동조하고 아첨하는 경향이 있는데, 그 의견이 정확하거나 객관적이지 않은 경우에도 마찬가지다. AI 비서에게 논쟁적인 정치적 이슈에 대해 질문할 때 사실 여부와 관계없이 사용자의 신념에 동조한다고 상상해 보라. 이런 현상은 AI 개발에 걸림돌이 되고 있다. 

현실 세계의 ‘반향실(echo chamber)’
최근 의 기사는 “기술 분야의 석학들은 AI가 미래라고 말한다. 검색 엔진과 이메일부터 자동차를 운전하고 거리의 치안을 지휘하며 백신을 만드는 소프트웨어에 이르기까지 모든 것을 뒷받침할 전망이다. 하지만 AI는 거의 전적으로 남성, 주로 백인 노동력의 편견을 그대로 답습하는 방식으로 만들어지고 있다”라고 지적했다.

AI가 객관적이고 진실한 답변을 제공하지 않고 사용자가 듣고 싶어 하는 말을 우선시한다면 문제가 될 수 있다. 이런 위선적인 행동은 잘못된 정보를 고착화시키고, 가치 있는 인사이트와 다양한 관점을 제공할 잠재력을 제한할 수 있다. 한 집단의 의견이나 신념을 반영하는 것이 왜 사회 전체에 해로운지 알게 될 것이다.

‘고객 서비스 대 수학’과 같이 명확한 답이 없는 주제를 질문할 때 이러한 아첨 문제가 발생할 가능성은 더 높다. 예를 들어 AI 챗봇은 고객을 달래기 위해 지나치게 동조할 수 있다. 사용자 경험을 개선하기 위해서라고 하지만, 위선적인 행동은 신뢰도와 안정성을 떨어뜨리고 챗봇을 제공하는 회사에도 악영향을 미칠 수 있다.

의료 분야에서 환자가 AI 기반 의료 상담 플랫폼과 상호 작용하며 우려되는 증상에 조언을 구할 때도 마찬가지다. 주로 긍정적이거나 안심시키는 의료 전문가의 언어를 데이터 세트로 학습한 AI 시스템은 증상의 심각성을 경시하고 지나치게 환자를 안심시킬 수 있다.

또한 플랫폼이 중대한 신호를 간과해 환자에게 즉각적인 대면 진료를 받도록 안내하지 못할 수도 있다. 걱정과 불안을 덜어주려는 좋은 의도일 수 있지만, 결과적으로는 오진, 부적절한 치료 또는 더 나쁜 결과를 초래할 수 있다. 이는 주로 원격 진료에 의존하는 환자에게 특히 위험하다.

AI의 아첨에 대응하는 방법
AI와 LLM의 아첨을 이해하고 이를 방지하기 위한 여정에서는 먼저 회색 지대를 제거해야 한다. 이를 위해 합성 수학 데이터를 활용할 수 있다. 수학은 옳고 그름에 대한 의견이 아니라 객관적인 진리를 제공하기 때문이다. 그러나 이 영역조차도 궤변에는 취약할 수 있다.

AI 모델의 지시 조정(instruction tuning) 규모와 방식도 아첨 수준에 큰 영향을 미칠 수 있다. 명확한 답이 없는 주제에 대한 질문을 던졌을 때, 더 많은 매개 변수를 사용해 지시 조정된 모델은 객관적인 현실에서 벗어난 관점일지라도 시뮬레이션된 사용자의 관점과 일치할 가능성이 더 높았다.

여기서 끝이 아니다. 모델은 잘못된 응답에 대해 안일하게 반응할 수도 있다. ‘2+2=5’와 같은 주장에 대해 사용자의 의견이 없는 경우 모델은 이를 정확하게 부정할 수 있지만, 사용자가 여기에 동의한다면 모델은 정확한 응답을 수정해 잘못된 의견을 따를 수 있다. 이것이 AI 아첨 문제의 미묘한 특성이다.

그렇다면 이런 문제를 어떻게 해결할 수 있을까? 몇 가지 모범 사례를 소개한다.

합성 수학 데이터 생성
먼저 합성 수학 데이터를 생성하고, 모델이 수학적 의견과 주장에 어떻게 반응하는지 평가한다. 이를 통해 사실의 정확성과 관계없이 사용자 프롬프트와 일치하는지에 대한 인사이트를 얻을 수 있다. 또한 수학적 담론의 영역 내에서 AI가 어떻게 적응하고 추론하는지에 대해 더 깊이 이해할 수 있다.

다양하고 균형 잡힌 학습 데이터
다양한 의견, 어조, 관점을 대표하는 데이터 세트를 AI 시스템에 학습시키면 아첨 편향의 영향을 완화할 수 있다. 건설적인 비판과 중립적인 어조 등 다양한 언어 패턴에 모델을 노출시켜야 보다 균형 잡히고 객관적인 커뮤니케이션 스타일을 모방하는 방법을 학습할 수 있다.

윤리 지침 및 감독
AI 개발 및 배포를 위한 명확한 윤리 지침을 수립하는 것도 매우 중요하다. 규제 기관과 업계 표준은 AI 시스템의 공정성, 정확성, 투명성을 강조하면서 편견을 완화하기 위한 가이드라인이 될 수 있다. 법적 프로토콜 측면에서는 뒤처져 있지만, 오픈AI 같은 기업은 AI 안전 감독을 위한 새로운 거버넌스 모델을 도입해 엄격한 안전 표준을 지키려고 하고 있다. 내년부터는 벤더와 관리 기관에서 더 많은 사례를 볼 수 있을 전망이다.

지속적인 모니터링 및 조정
AI 시스템의 편향성을 정기적으로 평가하고 알고리즘을 미세 조정해 아첨 편향을 줄여야 한다. 지속적인 모니터링, 피드백 수집 및 조정을 통해 AI 응답이 윤리적 기준과 사용자의 기대에 부합하도록 해야 한다. 새 차의 가치가 출고되는 순간부터 떨어지는 것처럼, 모델의 성능도 생산 환경에 들어가자마자 저하되기 시작하기 때문에 지속적인 점검이 필요하다.

교육 및 인식 제고
AI의 기능과 한계에 대해 사용자를 교육하면 기대치를 관리하고 비판적 사고를 장려하는 데 도움이 될 수 있다. 사용자는 AI 시스템에 내재된 잠재적 편향성을 인식하고 AI 생성 콘텐츠를 비판적으로 해석하는 방법을 알아야 한다. 이는 AI 프로젝트에 뛰어들고 싶어 하는 기업들에게 논쟁의 여지가 있는 영역이지만, 장기적인 성공을 위해서는 리스크를 이해하는 것이 중요하다.

AI와 LLM 솔루션의 아첨 편향은 미묘한 문제이며 개발자, 규제 기관, 사용자 모두의 적극적인 노력이 필요하다. AI는 잠재력을 갖고 있지만, 공정하고 윤리적인 방식으로 그 가치를 완전히 실현하려면 모든 편견을 해결하는 것이 필수적이다.

David Talby 박사는 존스노우 랩(John Snow Labs)의 CTO다. 의료, 생명 과학 및 관련 분야의 문제를 해결하기 위해 AI, 빅데이터, 데이터 과학을 활용하고 있다. dl-ciokorea@foundryco.com

David Talby

is the CEO of . He has spent his career making AI, big data and data science solve real-world problems in healthcare, life science and related fields. He helps companies build real-world AI systems, turning recent scientific advances into products and services. His specialty is applying machine learning, deep learning and natural language processing in healthcare.

? ??? ?? ???