娇色导航

????

??? ??

Editor in Chief B2B COMPUTERWOCHE, CIO, CSO in Germany

???? ?? ?? ?? ??? ???’··· ?? ??? EU AI ?, ??? ???

??
2024.08.024?

????(EU)? AI ?(AI Act)? ?? 1? ?? ????. ??? ???? ?? ?? ??? ?? ??? ?? ???? ?? ??? ? ??. ????? ?? ???? ?? ??? ????? ????.

EU의 AI 규제가 날로 엄격해지고 있다. 지난달 12일 EU AI 법의 원문이 EU 관보에 게재됐고, 지난 1일 AI 도구의 개발 및 사용에 관한 일련의 규칙이 공식적으로 발효됐다. 이 규제는 단계적으로 시행될 예정이지만, 영향권 내에 있는 기업은 6개월 안에 첫 번째 규칙을 따라야 한다.

업계는 AI 규제에 대해 엇갈린 시선을 보내고 있다. 일부는 AI 도구를 올바르게 사용할 수 있는 보호 장치라고 환영했지만, 다른 한편에서는 관료주의를 경고하면서 규칙이 혁신을 저해할 수 있다고 우려했다. AI 법안 출범을 두고 게재된 논평을 소개한다.

비트콤(Bitkom) “AI 법이 기업 교착 상태로 이어져선 안 된다”
독일 디지털 협회인 비트콤의 회장 랄프 빈터거스트는 독일과 유럽 차원에서 AI 법이 발효된 후에도 여전히 많은 의문이 풀리지 않는다고 말했다. 그는 “독일과 유럽이 AI 혁신의 중심지가 될지 후발주자가 될지는 AI 법의 향후 설계와 시행에 달려 있다. 법 시행이 기업의 교착 상태로 이어져선 안 된다. AI 법 시행에 따른 법적 불확실성, 불명확한 책임, 복잡한 관료적 절차가 유럽의 AI 혁신을 저해할 수 있다. 비즈니스와 행정은 물론 사회 전반에서 AI 사용을 지속적으로 발전시키는 데 목표를 둬야 한다. 관료주의 없이 실용적인 방식으로 구현돼야만 성공할 수 있다”라고 말했다.

독일의 경우에 한해 빈터거스트는 연방 정부가 AI 법의 시행 법안을 제안할 것을 촉구했다. 특히 그는 “중앙 기관을 지정하는 것 외에도 시장 감시 및 적합성 평가 기관 간의 책임도 명확하게 정의돼야 한다. 또한 모든 관할 당국에 업무 수행을 위한 인력과 자원이 충분히 제공돼야 한다. 마지막으로 중소기업과 스타트업에는 AI 실험을 위한 맞춤형 설계와 당국의 실질적인 지원이 뒷받침돼야 한다”라고 강조했다.

TÜV 협회 “유럽산 AI를 위한 기회 제공”
디지털 안전 표준 개발에 주력하는 TÜV 협회(TÜV Association)는 EU AI 법의 발효를 환영하면서 이 규칙이 안전하고 신뢰할 수 있는 AI를 위한 법적 프레임워크를 마련할 것이라고 언급했다. TÜV 협회의 전무이사인 요아킴 뷜러는 “AI 법은 AI의 부정적인 영향으로부터 보호하는 동시에 혁신을 촉진할 기회를 제공한다. 안전한 ‘유럽산 AI’를 위한 글로벌 선도 시장을 구축하는 데 유용할 수 있다. 이제는 효율적이고 비관료적으로 구현하는 것이 중요하다. 독립 기관은 구속력에 대한 요구 사항을 충족할 뿐만 아니라 자발적인 AI 테스트 시장에서도 중요한 역할을 한다”라고 말했다.

특히 뷜러는 기업이 과도기의 요구 사항을 지금부터 숙지할 필요가 있다면서, “AI 법이 자사의 활동에 어떤 영향을 미치는지, 그리고 어디에 영향을 미치는지 평가해야 한다”라고 설명했다. 또한 그는 AI 법이 실제로 효과를 발휘하려면 위험 기반 접근법의 일관된 해석과 일관된 적용이 중요하다고 강조하며 “바로 여기에서 회원국의 역할이 요구된다”라고 말했다.

비트콤과 마찬가지로 TÜV 협회도 효율적이고 비관료적으로 규제를 이행할 것을 요구하고 있다. 이를 위해서는 규제를 실제로 이행할 수 있는 명확한 책임과 책임 기관이 필요하다. 중소기업에 법적 확실성을 제공하려면 고위험 AI 시스템 분류에 대한 이행 지침을 AI 사무국에서 가능한 한 빨리 발표해야 한다는 입장이다. 또한 TÜV 협회는 새로운 AI 리스크와 강력한 범용 AI 모델의 시스템적 리스크 개발을 주시하고, 체계적인 AI 피해 신고 시스템 개발을 추진하는 것이 중요하다고 언급했다.

GI “새로운 사회적 도전을 제기하는 AI”
컴퓨터 과학자 전문 학회인 독일정보과학회(GI)는 여러 입장문을 통해 AI 법의 결과를 다각도에서 조명하고 있다. 크리스틴 레기츠 GI 회장은 원칙적으로 AI 분야의 규제를 환영할 만한 일로 보고 있다며 컴퓨터 과학에 사회적 책임이 있다고 말했다. 그는 “AI 분야에서 시스템의 영향을 받는 사람들에게 지원과 AI 시스템 개발 및 사용 규칙이 필요하다는 점을 확인했다. AI를 안전하게 사용하기 위한 많은 규칙이 AI 법과 함께 시행된다. 컴퓨터 과학은 이제 이런 규칙을 구현하고 격차를 해소하는 데 중요한 역할을 하고 있다”라고 밝혔다.

GI 담당자들은 다른 것보다도 AI 법의 도덕적 차원을 강조했다. GI 컴퓨터 과학 및 사회부 대변인인 크리스틴 헤닉은 “AI 시스템은 우리 사회에 질적으로 새로운 도전을 제기하고 있다. 이는 기술적인 측면뿐만 아니라 법적, 윤리적, 사회적으로도 논의돼야 한다. 기술 평가의 문제가 핵심이다. 미래에 어떤 디지털로 변화된 세상에서 살고 싶은가?”라고 말했다.

답은 쉽지 않다. GI의 AI 부서 대변인인 랄프 묄러는 인간이 AI 시스템을 사용하는 것에 대한 사회적 맥락이 아직 분석되고 평가되지 않았다고 결론지었다. 묄러는 이와 관련한 규제 당국의 역할을 비판하며 “기술을 성능을 제한하거나 시스템 아키텍처를 규제의 기반으로 삼는 것은 효율적이지도 않고 근본적으로 가능해 보이지 않는다”라고 말했다.

AI 법 로드맵
AI 법의 시행은 시차를 두고 전환 기간이 적용된다. 내년 초부터 조작 또는 기만적인 기술을 사용하는 AI 시스템이 금지되며, 내년 8월 1일부터는 특정 범용 AI 모델에 대한 행동 강령이 시행된다. 또한 EU 회원국은 시장 감시를 위한 당국을 지정해야 한다. 2026년 8월부터는 대출, 인사 또는 법 집행 등 분야에서 고위험 AI에 대한 감사가 의무화된다. 이는 AI 개발자뿐만 아니라 AI 서비스 업체와 운영자에게도 영향을 미친다. 2027년부터는 서드파티 테스트 대상 제품의 AI 요구 사항이 적용된다.

EU의 규제 프레임워크는 AI 애플리케이션을 여러 위험 등급으로 나눴다. 의료, 중요 인프라 또는 인적 자원 관리와 같은 분야에서 사용되는 ‘고위험’ 시스템은 엄격한 규제를 받으며 투명성, 보안 및 감독에 대한 포괄적인 요건을 충족해야 한다. 챗봇과 같은 ‘제한적 위험’ 시스템은 투명성 요건만 충족하면 되며, 단순 비디오 게임과 같은 ‘저위험’ 시스템은 규제를 받지 않는다. 위반 시 최대 1,500만 유로 또는 전 세계 연간 매출액의 최대 3%에 해당하는 벌금이 부과될 수 있다. dl-ciokorea@foundryco.com