娇色导航

????

??? ??

IBM ? ?? ???, LLM ?? ?? ??? ? ?? ?? ??

??
2024.08.193?

LLM? ???, ??? ??, ???? ?? ?? ??? ????? ??? ? ?? ??? ?? ??(DCT ; Deductive Closure Training) ??? ??? ???? ????.

대규모 언어 모델(LLM)의 엄청난 잠재력에 대한 흥분이 가라앉고 있는 가운데, 이 기술의 취약한 부분을 보완하려는 작업이 진행되고 있다.

LLM의 약점 중 하나로는 ‘환각’이 손꼽힌다. 비상식적인 수준의 허구적 출력도 존재하지만, 오히려 문제가 되는 부분은 사소한 오류다. 부정확성, 편견, 오해를 불러일으킬 수 있는 언급과 같은 사소한 오류의 경우 눈에 띄지 않기 때문에 더 큰 문제 가능성을 내포한다.

작년 은, LLM기술이 엉성한 결과물을 내놓는 경향이 너무 커서 과학, 교육, 어쩌면 민주주의 자체에 위험을 초래할 수 있다고 주장한 바 있다. 

디지털 시대 속에서 사실의 정확성이 곳곳에서 문제가 되고 있다. 특히 법조계에서 사실 확인과 관련해 어려움을 겪고 있다. 이는 주로 인공신경망 자체의 잘못이 아니다. 인공신경망을 학습시키는 데 사용된 데이터가 부정확하기 때문이다.

이러한 가운데. IBM, MIT, 보스턴 대학교, 인도네시아 모나쉬 대학교의 연구팀이 LLM을 학습 방법의 문제점을 해결할 수 있는 기술을 제안했다. 이 논문의 초록은 문제를 다음과 같이 진단한다.

“언어 모델은 지식이 있는 것처럼 보이지만, 단어와 구문에 대한 예측만 할 뿐 세상에 대한 일관된 이해가 반영되지 않은 지식의 조합일 뿐이다. 언어 모델은 사람과 같은 방식으로 지식을 보유하지 않는다.”

한 가지 해결책은 검색 증강 생성(RAG)을 배포하여 고품질의 전문 데이터를 공급함으로써 LLM을 개선하는 것이다. 그러나 이 접근법은 많은 컴퓨팅 리소스와 인력이 필요하기에 실용성에 한계를 가진다.

자체적으로 과제 해결
이번 연구팀이 제시하는 대안은 연역적 폐쇄 학습(DCT ; Deductive Closure Training)이다. LLM이 스스로 출력의 정확도를 평가하도록 하는 것이 핵심이다. 개요는 다음과 같다.

비지도 모드에서 LLM에 ‘시드’ 문장이 제공된다. 이후 LLM은 이 문장을 사용해 추론된 문장을 생성한다. 이 중 일부는 사실이고 일부는 그렇지 않다. 그런 다음 LLM 모델은 일관성 그래프를 그려서 이러한 각 문장이 참일 확률을 분석한다. 사람이 감독하는 경우 이 모델에 참이라고 알려진 문장이 시드될 수 있다.

연구팀은 에서 “지도형 DCT는 LM 사실 검증 및 텍스트 생성 정확도를 3~26% 향상시킨다. 에서 완전 비감독형 DCT는 검증 정확도를 12% 향상시킨다” 라고 보고했다.

한편, 연구진의 두 번째 팀은 (self-specialization)라는 기술을 사용하여 이를 더욱 개선하는 방법을 제안했다. 이는 특정 지식 영역의 자료를 수집함으로써 제너럴리스트 모델을 스페셜리스트 모델로 전환하는 방법이다.

IBM은 “모델에 유전학 데이터 세트를 제공하고 모델에 포함된 유전자 변종과 돌연변이에 대한 보고서를 생성하도록 요청할 수 있다. 이러한 ‘시드’를 몇 개 제공하면 모델은 새로운 지침과 응답을 생성하기 시작한다. 학습 데이터에 잠재된 전문 지식을 호출하고 정확성을 보장하기 위해 필요한 경우 RAG를 사용하여 외부 데이터베이스에서 사실을 가져온다”라고 설명했다.

이는 RAG 기법과 비슷하게 들릴 수 있다. 그러나 전문 모델이 필요할 때만 API를 통해 호출된다는 점이 다르다고 연구진은 밝혔다.

‘사실’ 확인에 여전히 한계
그레이엄 클루리와 함께 ‘‘를 공동 진행하고 있는 마크 스톡리에 따르면, 근본적인 문제는 LLM이 널리 오해받고 있다는 점이다. 특정 작업에는 능숙하지만 사실 또는 진실을 정교하게 확인하는 엔진이 결코 아니다.

그는 “이번 IBM의 연구는 LLM이 왜 사실 확인에 서투른지에 대한 근본적인 원인을 다루지는 않는다. 하지만 현재 서투른 작업을 덜 서투르게 만들 수 있는 가능성을 제시한다”라고 말했다.

스톡리는 이어 “이를 두고 엇갈리게 평가할 수 있다. 일단 진정한 지능형 AI를 향한 경로는 LLM을 거치지 않는 것이기에 LLM 개선 기법은 부수적인 것이라고 말할 수 있다. 다르게는 LLM이 그 자체로 유용하기에, LLM을 더욱 유용하게 하는 기술이 의미를 지닌다고 평가할 수도 있다”라고 설명했다.

현재 분명한 현실 중 하나는 LLM이 빠르게 진화할 필요가 있다는 것이다. 그렇지 않다면 소수를 위한 값비싼 도구가 되거나 그저 잘 포장된 문법 검사기로 전락할 가능성이 크다. dl-ciokorea@foundryco.com

John E. Dunn is a veteran cybersecurity reporter, specializing in crisis response, ransomware, data breaches, encryption, quantum computing and QKD, DevSecOps, managed services, cybersecurity in education, retail cybersecurity, vulnerability reporting, and cybersecurity ethics.

John is a former editor of the UK editions of Personal Computer Magazine, LAN Magazine, and Network World. In 2003 he co-founded Techworld, since when he has covered cybersecurity and business computing for a range of publications including Computerworld, Forbes, Naked Security, The Register, and The Times.

? ??? ?? ???