????? ??? ? ?????? ???(WAF)? API ??????? LLM ? ???? AI ?????? ?? ?? ?? ??? ???? ??? ????. Credit: Tero Vesalainen / Shutterstock 사이버보안 엔지니어들은 사용자와 AI 모델 사이에서 트래픽 패턴뿐만 아니라 의도와 맥락까지 검사하는 새로운 유형의 보안 도구를 개발하고 있다. 아카마이(Akamai)는 RSA 2025에서 ‘AI용 방화벽’을 선보였다. 아카마이에 따르면 이는 초기 고객 플랫폼에서 발생한 10만 건 이상의 요청 중 6%를 ‘위험한’ 요청으로 분류하도록 지원했다. 위험한 요청에는 민감한 데이터 유출, 유해한 응답, 프롬프트 인젝션 시도 등이 있었다. 이번 출시로 기존의 와 API 게이트웨이에서 LLM 및 에이전틱 AI 워크플로우를 위한 전용 보안 제어로 전환해야 한다는 논의가 활발해지고 있다. 전통적인 보안 도구들은 기존 방어 시스템이 차단하도록 설계되지 않은 LLM 및 에이전틱 AI 시스템에 의한 하고 있다. 프롬프트 인젝션부터 모델 추출까지, AI 애플리케이션의 공격 표면은 매우 다양해진 상황이다. 가트너(Gartner)의 수석 VP 분석가인 아비바 리탄은 “전통적인 WAF와 API 게이트웨이 같은 보안 도구는 생성형 AI 시스템을 보호하는 데 매우 부족하다. AI 상호작용을 가리키거나, 읽거나, 교차하지 않으며 이를 해석하는 방법을 알지 못하기 때문이다”라고 설명했다. 제로데이가 될 수 있는 AI 위협 AI 시스템과 애플리케이션은 비즈니스 워크플로우와 위협 탐지 및 대응 루틴을 자동화하는 데 매우 뛰어나지만, 이전에는 없었던 새로운 문제를 가져오고 있다. 보안 위협은 이나 공격에서 행동 조작으로 진화했으며, 공격자들은 모델을 속여 데이터를 유출하거나, 필터를 우회하거나, 예측할 수 없는 방식으로 행동하게 한다. 가트너의 리탄은 모델 추출과 같은 AI 위협이 수년 동안 존재해 왔지만, 일부는 매우 새롭고 다루기 어렵다고 언급했다. 그는 “규칙을 따르지 않는 국가와 경쟁자들은 다른 이들이 만든 최첨단 AI 모델을 수년 동안 역설계해 왔다”라고 설명했다. 리탄은 이어 “프롬프트 인젝션과 같은 생성형 AI 특유의 위협은 우리가 아는 한 아직 흔하지 않은 새로운 위협이다. 문제는 모르는 것이 무엇인지 모른다는 점이다. 기업이 위협을 찾기 위한 도구를 도입하지 않으면, 새로운 위협 벡터가 어떻게 악용되고 있는지 알지 못할 수 있다”라고 말했다. 엔터프라이즈 전략 그룹(ESG)의 수석 분석가인 존 그레이디는 이런 위협이 매우 실제적이고 현존한다고 지적했다. 그는 “챗GPT/오픈AI와 같은 공개 생성형 AI 앱에서 이런 유형의 공격 사례를 봤기 때문에 위협은 가설이 아니다. 많은 기업이 AI를 활용한 내부 개발 앱을 빠르게 진행하고 있다. 애플리케이션이 개발되고 대중이나 조직 내부에서 접근 가능해지면 이 문제는 점점 더 커질 것”이라고 진단했다. 두 분석가 모두 기존 보안 도구로는 자연어 프롬프트를 이해하거나 필터링할 수 없고, 대응을 위한 가드레일을 적용할 수 없기 때문에 생성형 AI 시스템을 대상으로 하는 별도 보안 도구가 필요하다고 보고 있다. AI용 방화벽의 가능성 AI 보안에는 맥락을 인식하는 적응형 보안이 필요하다. 이런 상황에서 아카마이의 AI용 방화벽은 AI 애플리케이션, LLM 및 AI 기반 API가 직면한 위협을 스캔하고 대응하는 기능을 제공하고 있다. 아카마이는 해당 솔루션이 실시간 AI 위협 탐지와 함께 유해한 콘텐츠, 환각, 무단 데이터 유출을 방지하기 위해 AI 출력을 필터링하는 등의 리스크 완화 기능을 제공한다고 밝혔다. 아카마이의 애플리케이션 보안 수석 부사장 겸 총괄 매니저인 루페시 촉시는 “모든 글로벌 기업에서 LLM과 AI 상호작용에 특화된 보안 도구가 필요할 것이라고 생각한다. WAF는 여전히 기본적이지만, AI는 전문화된 보호가 필요한 새로운 위협을 가져오고 있다”라고 말했다. 그에 따르면 아카마이의 AI용 방화벽의 초기 도입자 중 일부는 자사에서 AI를 사용하지 않는다고 말했지만, 개념 증명(PoC) 단계에서 LLM에 대한 많은 API 호출을 발견한 것으로 나타났다. ESG의 그레이디는 해당 솔루션이 “내부적으로 개발된 애플리케이션에 사용되는 생성형 AI를 대상으로 한다”라며 “시간이 지남에 따라 이런 기능이 WAF와 같은 기존 애플리케이션 보안 도구에 긴밀하게 통합되거나 완전히 통합될 것으로 예상할 수 있다”라고 말했다. 전용 보안 스택으로의 이동? AI 보안이 나아가고 있는 일반적인 방향에 대해 그레이디는 “AI 분야는 너무 빠르게 움직이고, 너무 다르다. 상당한 기회와 리스크가 동시에 존재한다. 이 문제를 해결하기 위해 많은 스타트업과 기존 벤더의 새로운 제품이 등장하는 것은 당연하다. 하지만 시간이 지나면서 AI가 우리가 하는 모든 일의 기반이 되어감에 따라, 이런 보안 제어 기능은 보안 접근, 애플리케이션 보안, 데이터 보안, 신원 확인 등 스택 전반에 더 효과적으로 통합돼야 한다”라고 말했다. 리탄 역시 이런 제품이 독립적인 보안 시장을 형성한다고 보지 않았다. 그는 “기존 보안 벤더가 관련성과 경쟁력을 유지하기 위해 구축하거나 인수해야 하는 점진적이고 중요한 기능으로 본다”라고 말했다. 리탄 역시 이러한 제품이 독립형 보안 시장을 형성할 것으로 보지 않습니다. “기존 보안 벤더가 관련성과 경쟁력을 유지하기 위해 구축하거나 인수해야 하는 점진적이고 중요한 기능으로 보고 있습니다.” 아카마이 외에도 팔로알토 네트웍스가 AI 관련 보안 위험을 해결하기 위해 를 인수하고, 시스코가 위협 방어 및 AI 트래픽 가시성을 개선하기 위해 를 인수하는 등 AI 보안에 초점을 맞춘 전략적 움직임이 이미 몇 차례 나타났다. 또한 최근에는 및 와 같은 벤더도 AI 워크플로우 보안을 위한 기능을 기본적으로 추가했다. 그레이디와 리탄 모두 EU AI 법과 같은 AI 규제 변화가 이러한 종류의 도구에 대한 수요에 긍정적인 영향을 미칠 것으로 예상했다. 리탄은 “금융 및 의료와 같은 규제 산업은 이미 엄격한 데이터 개인정보 보호법(예: CPRA, PCI DSS)의 적용을 받고 있으며, 법적 및 평판 위험을 피하기 위해 도구 채택이 가속화될 것”이라고 분석했다.dl-ciokorea@foundryco.com ???? ???? ??? ??? IT ??? ???? ??? ????! ??? ??? ??? ?????. ????