KNOWLEDGE
최신 인공지능(AI) 동향
중국, AI 안전 거버넌스 프레임워크 2.0 버전 발표
중국 정부가 인공지능(AI) 수명주기 전반에 내재한 위험과 AI 응용 위험, 파생 위험을 분석하고 기술적 대책과 종합 거버넌스 조치를 제시한 ‘AI 안전 거버넌스 프레임워크’ 2.0 버전을 발표했다. AI 안전 거버넌스 프레임워크는 종합적 AI 거버넌스 일환으로 AI 안전 관련 법률 제정·개선과 윤리 기준 확립, AI 수명주기 전반의 보안 역량 강화, 오픈소스 생태계와 공급망 보안 강화를 제안하고 있다.
AI 안전 거버넌스 프레임워크 2.0 버전은 특히 AI 위험 분류와 기술적 대책, 종합 거버넌스 조치를 제시했다는 점에서 눈여겨볼 만하다. 중국 인터넷 규제기관인 국가인터넷정보판공실은 2025년 9월 15일 국가 사이버보안 선전 주간에 열린 포럼에서 ‘AI 안전 거버넌스 프레임워크’ 2.0 버전을 발표했다. 2024년 9월 공개된 1.0 버전은 AI 수명주기 전반에 내재한 위험 및 AI 응용으로 인한 위험을 분석하고 기술적 대응조치와 종합적 예방 조치를 제시했었다. 2.0 버전은 1.0 버전을 토대로 그간의 AI 기술 발전과 새로운 위험 요소를 반영하여 위험 분류 및 예방과 관리 조치를 개선했다.
위험 분류에 있어 AI 안전 거버넌스 프레임워크 2.0은 AI의 기술적 특성과 다양한 산업 응용 시나리오를 토대로 보안 위험을 △내재적 위험 △응용 위험 △파생 위험으로 분류했다. 이중 내재적 위험은 설명 가능성 부족, 편향과 차별, 부정확한 결과와 같은 AI 모델 알고리즘의 위험 및 불법 데이터 수집과 사용, 부적절한 학습 데이터 등의 데이터 보안 위험을 포괄한다. 응용 위험은 AI 개발과 배포에 사용되는 네트워크 시스템의 보안 위험, 허위 정보 생성 및 잘못된 의사결정을 유도하는 정보 콘텐츠 위험 등을 의미한다. 파생 위험은 일자리 감소나 컴퓨팅 시설의 무분별한 구축 등 사회와 환경에 미치는 위험, AI 격차 증대 및 AI를 활용한 고위험 과학 연구와 같은 윤리적 위험을 포괄한다.
기술적 대책에 있어서는 각 위험에 대하여 AI 모델의 훈련 데이터, 모델 알고리즘, 컴퓨팅 시설, 제품과 서비스, 응용 시나리오 등 다양한 측면에서 기술적 조치가 필요하다고 강조했다. 내재적 위험 대책으로는 AI의 설명 가능성과 투명성 개선, 인간의 감독체계 도입, 모델 알고리즘의 보안 결함 해결, 데이터 보호 규정 준수, 합법적 훈련 데이터 사용 장려 등을 실시할 것을 주문한다. 응용 위험 대책으로는 네트워크 시스템 접근제어 강화, 보안 취약점을 줄이기 위한 안전 규정 수립과 이행, 공급망 보안 강화, AI 모델 안전 가드레일 구축 등을 진행하도록 안내돼 있다. 파생 위험 대책에는 친환경 AI 모델 및 컴퓨팅 기술, 기술 표준 개발을 모색하고 생명과 건강에 영향을 미치는 핵심 분야의 AI 시스템에 대한 비상 통제 대책 마련이 포함돼 있다.
2.0 버전은 기술적 대책 마련과 함께 정부, 사회단체, 사용자 등 다양한 이해관계자가 참여하는 종합 AI 보안 거버넌스 체계를 수립하도록 규정돼 있다. AI 안전에 관한 법률 제정과 개선을 추진하고 AI 기술 관련 윤리 기준을 확립하며, AI 연구개발과 응용의 전체 수명주기에 걸친 보안 역량 강화 및 오픈소스 생태계와 공급망의 보안 강화를 추진하도록 한 것이다.
이탈리아, EU 회원국 중 최초로 AI 법 발효
이탈리아가 혁신과 사이버보안, 개인정보 보호를 강조하면서 인간 중심적 관점에서 안전하고 투명한 AI 사용을 촉진하기 위한 AI 법을 EU 회원국 중 최초로 발효했다. 해당 법은 정부에 생산성 향상과 국가 경쟁력, 기술 주권 강화를 위한 AI 시장과 생태계 조성 및 데이터 접근성 개선 등을 요구하고, 노동 분야의 AI 활용에 대한 감독기관 설립을 규정하고 있다.
복수의 소식에 따르면 이탈리아 정부는 AI 혁신과 안전하고 투명한 AI 사용을 위한 종합 법률 시행을 알렸다. 이탈리아 상원에서 EU 회원국 최초로 AI 법(상원법 제1146호)이 통과되어 2025년 10월 10일 발효된 것. 정식 명칭은 ‘Disposizioni e deleghe al Governo in materia di intelligenza artificiale(AI 관련 규정 및 정부 위임안)’으로, 이탈리아 정부는 AI 개발과 활용의 법적 근거를 마련하는 동 법이 혁신과 사이버보안, 개인정보 보호를 중시하는 동시에 인간 중심적 관점에서 안전하고 투명한 AI 사용을 촉진할 것이라고 강조했다.
법의 기본 원칙은 AI 연구와 개발, 도입과 이용 시 투명성과 비례성, 안전성, 개인정보 보호, 기밀성, 정확성, 비차별성, 지속가능성 원칙을 준수해야 한다고 강조한다. 또한 AI 시스템 개발에 사용되는 데이터와 프로세스의 정확성과 신뢰성, 안전성, 품질, 적절성, 투명성 및 인간의 감시와 개입을 보장하고, 위험에 비례한 접근 방식에 따라 AI 시스템과 모델 수명주기 전반에 걸쳐 사이버보안을 보장하며 공격 시도에 대응한 보안 통제 조치를 채택할 것을 요구하고 있다.
개인정보 처리와 보호에 있어서는 AI 시스템의 데이터 활용 시 언론의 자유와 다양성, 표현의 자유, 정보의 객관성·완전성·공정성·신뢰성 보장이 필요하다고 강조했다. EU 개인정보 보호 관련 법률(EU GDPR)에 따라 적법하고 공정하며 투명한 개인정보 처리를 보장해야 하며, 만 14세 미만 미성년자의 AI 기술 접근을 허용하려면 보호자의 동의 획득이 필요하다고 규정했다.
정부의 역할에서는 AI 도입으로 생산성 향상과 국가 경쟁력, 국가의 기술 주권을 강화하기 위해 혁신적이고 공정하며 개방적이고 경쟁력 있는 AI 시장과 생태계를 조성하는 등의 조치를 시행하도록 규정했다. AI 기업과 과학 연구 집단을 위해 고품질 데이터 접근성을 개선하고, AI 시스템과 모델의 공공 조달 시 국내 데이터센터를 우선 활용하며 높은 수준의 보안과 투명성을 보장할 수 있는 제품을 우선 채택해야 한다.
노동 분야 AI 활용에 있어서는 회사 업무에 AI 활용 시 안전성과 신뢰성‧투명성을 보장하고 인간의 존엄성과 개인정보를 침해해서는 안 되며, 채용 시에는 성별‧나이‧민족‧종교 등에 따른 차별을 금지하고 있다. AI 활용으로 인한 이점을 극대화하고 위험을 최소화하기 위해 노동사회정책부 산하에 노동 분야 AI 활용 전략 수립, 노동시장에 미치는 영향 감독, AI 관련 교육 촉진 등을 담당할 AI 시스템 도입 감시국을 설치한다.
형사 규정에 있어서는 AI 시스템으로 생성 또는 변조된 콘텐츠 불법 유포로 사생활 침해나 명예훼손 등 구체적 손해를 끼친 경우, 피해자 고소에 따라 기소하고 1년 이상 5년 이하의 징역형을 부과하게 돼 있다. 특히 기업이나 단체가 AI를 악용해 금융사기나 시장 조작 등의 범죄를 저질렀을 때는 기존 형량에서 2~7년까지 가중 처벌을 적용한다고 규정했다.
글‧사진 / 이승한

