????(EU)? AI ??? ???? ?? ?? ??? ??? ??, ???? ?? 2? ?? ???? ?? ??? ??? ????. Credit: Sidney van den Boogaard – Shutterstock.com EU가 ‘범용 AI 실천 강령(General Purpose AI Code of Practice)’을 통해 처음으로 AI 규제를 위한 지침을 마련했다. 이 강령은 AI 법안(EU AI Act) 준수를 보다 쉽게 이행할 수 있도록 지원하기 위해 고안됐다. 해당 가이드라인은 다음달 2일 발효되며, 오는 2026년부터 실제 운영에 적용될 예정이다. 그러나 이 강령은 발표 직후부터 업계 단체, CEO·CIO, 시민단체(NGO) 등으로부터 비판을 받고 있다. 실천 강령의 주요 내용 이번 강령은 ‘투명성’, ‘저작권’, ‘안전 및 보안’ 등 3개의 장으로 구성돼 있다. ‘’ 장은 모델 제공자가 AI 법안 제53조에서 요구하는 투명성 기준을 충족하기 위해 필요한 정보를 손쉽게 문서화할 수 있도록 돕는 사용자 친화적 템플릿을 제공한다. ‘’ 장은 AI 법안 제53조에 따라 모델 제공자가 EU 저작권법을 준수하기 위한 전략을 수립할 수 있도록 실질적인 해결 방안을 제시한다. ‘’ 장은 최첨단 AI 모델이 유발할 수 있는 시스템 리스크에 대응하기 위한 구체적이고 최신의 실천 방안을 제시한다. 이 항목은 시스템 리스크를 동반한 범용 AI(GPAI) 모델 제공자에게만 적용되며, 이들이 AI 법안 제55조에 명시된 의무를 이행하는 데 참고할 지침으로 구성돼 있다. 독일 디지털협회의 비판 독일 디지털협회 비트콤(Bitkom)은 이번 GPAI 행동강령에 대해 비교적 완곡한 표현으로 평가하면서도 을 드러냈다. 비트콤은 이 강령이 유럽 내 AI 개발에 법적 확실성을 제공할 기회가 될 수 있다고 평가했다. 또 초기 초안과 비교해 내용이 간소화되고 법률 본문과의 정합성이 높아져, 기업들이 실제로 적용하기 쉬워졌다는 점도 긍정적으로 봤다. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, begrüßt zwar die Richtlinien, sieht aber einige kritische Punkte. Bitkom 그러나 비트콤 이사회 구성원인 수잔네 데멜은 “이번 강령이 유럽의 AI 경쟁력에 제동을 거는 요소가 되어선 안 된다”라고 경고했다. 그러면서 “AI 법안이 현실에서 제대로 이행되려면, 지나치게 포괄적이면서도 모호하게 서술된 감사 요건을 구체화하고 행정적 부담도 대폭 줄여야 한다”고 강조했다. 비트콤은 또한, 고성능 AI 모델에 대해 위험을 공개적으로 식별하도록 요구한 조항이 지나치게 강화됐다는 점에 대해서도 비판적인 입장을 드러냈다. EU 주요 CEO들의 입장 45명 이상의 유럽 기업 CEO들이 EU에 을 보내, AI 규제가 지나치게 복잡해 유럽의 경쟁력을 위협하고 있다고 경고했다. 이들은 일부 규정이 불분명하고 서로 모순되는 부분도 존재한다며, EU가 AI 규제의 복잡성에 스스로 함몰되고 있다고 지적했다. 이들 경영진은 EU AI 법안의 시행을 2년 연기할 것을 요구했다. 해당 공개서한은 약 110개 유럽 기업을 대표하는 로비 단체 ‘EU AI 챔피언 이니셔티브(EU AI Champions Initiative)’ 주도로 작성됐으며, 메르세데스벤츠, 루프트한자, 필립스, 셀로니스, 에어버스, AXA, BNP 파리바 등의 CEO가 서명했다. SAP·지멘스 “AI 법안 전면 개정해야” 지멘스(Siemens) CEO 롤랜드 부시와 SAP CEO 크리스티안 클라인은 비판 강도가 충분하지 않다고 판단해 공개서한에 서명하지 않았다. 과의 인터뷰에서 두 CEO는 현행 EU AI 법안의 근본적인 개정을 요구하며 혁신을 촉진하는 새로운 프레임워크가 필요하다고 밝혔다. 부시는 현재 형태의 AI 법이 “디지털 비즈니스 모델의 발전에 치명적인 독”이라고 표현했다. Für Siemens-Chef Roland Busch ist der AI Act in seiner vorliegenden Form toxisch für digitale Geschäftsmodelle. Siemens AG 시민단체의 시각 시민사회 대표를 자처하는 NGO 도 이번 강령에 대해 강한 우려를 표명했다. 이 단체는 특히 미국 빅테크 기업들이 비공개 회의에서 강령의 핵심 조항을 약화시켰다고 주장하며 비판적 입장을 밝혔다. 퓨처소사이어티 사무총장 닉 모에스는 “약화된 실천 강령은 유럽 시민과 기업을 불리한 위치에 놓이게 하며, 전 세계적으로 보안과 책임성을 강화할 기회를 놓치게 만든다. 공익을 위해 헌신해 온 모든 이해관계자들의 노력이 미국 빅테크의 영향력에 가려졌다”라고 비판했다. 비판의 핵심 사안 4가지 해당 단체가 지적한 핵심 문제점은 다음 4가지다. AI 규제 당국은 제품이 시장에 출시된 이후에야 핵심 정보를 전달받는다. 벤더가 모델 보고서와 위험 평가 내용을 배포 이후에 공유하는 ‘선공개 후점검’ 방식이 허용되고 있다. 이로 인해 잠재적으로 위험한 모델이 검증 없이 유럽 사용자에게 도달할 수 있으며, 이후 위반 사항이 발견되면 AI 규제 당국이 리콜을 강제해야 하는 상황이 발생할 수 있다. 이는 AI 혁신 가능성에 대한 근거 없는 비난을 키우는 결과로 이어질 수 있다. 내부고발자 보호가 실질적으로 보장되지 않는다. 자본과 시장 중심의 산업에서 내부 정보는 매우 중요하다. AI 기업이 사용자에 대해 많은 것을 알고 있는 반면, 사용자는 기업에 대해 거의 알지 못한다. 이런 정보 불균형을 보완할 내부 제보 시스템과 보호체계가 필요하다. AI 규제 당국은 안전한 피난처가 되어야 하며, EU 내부고발자 지침(Whistleblower Directive) 기준과 동일한 수준의 보호를 제공해야 한다. 비상 상황 대응 계획이 의무화되지 않았다. 고위험 산업에서 기본이 되는 사전 대응 프로토콜이 AI에는 적용되지 않았다. 특히 GPAI는 피해가 매우 빠르게 확산될 수 있기 때문에, 서비스 업체들이 사전에 비상 대응 및 피해 완화 전략을 계획하도록 의무화해야 한다. 위험 관리 권한이 지나치게 벤더에 집중됐다. 이번 강령에서는 벤더가 스스로 리스크를 정의하고, 기준을 설정하며, 자체적으로 평가할 수 있도록 허용했는데, 이는 로비를 통해 반영된 결과로 평가된다. 이를 통해 신뢰를 받을 자격이 있다는 것을 스스로 입증할 수 있는 구조다.dl-ciokorea@foundryco.com ???? ???? ??? ??? IT ??? ???? ??? ????! ??? ??? ??? ?????. ????