KNOWLEDGE
최신 인공지능(AI) 동향
OECD, EU AI 핵심 산업 분야 도입 현황과 과제 분석
OECD가 2026년 2월 18일 유럽연합(EU) 내 농업, 의료, 제조업, 모빌리티 분야에서 AI 도입 현황과 AI 확산을 저해하는 주요 도전 과제를 분석한 보고서를 발간한 가운데, AI가 정보 기반 의사 결정 지원, 복잡한 프로세스의 자동화, 질병 진단, 예측 유지보수 등에 다양하게 활용될 수 있고, 인력 부족과 인프라 노후화, 환경 문제 등의 과제 해결을 지원하는 것도 가능한 것으로 나타났다.
보고서에 따르면, 주요 4개 산업 분야의 AI 도입은 주로 일부 기능에 국한되거나 시범 단계에 머무른 상태다. 2024년 기준 EU 지역 운송과 제조업 분야 AI 도입률은 각각 8%와 11%로, EU 전체 평균인 13%보다 낮은 수준을 보였다. 의료 및 농업 분야는 비교 가능한 수치가 없으나 역시 AI 도입은 제한적인 것으로 추정됐다. 이들 산업에서 AI 도입은 텍스트 마이닝이나 기본적인 자동화 같은 협소한 기능에 국한되거나 시범 단계에 머물러 있으며, 핵심 운영 프로세스에 대규모로 AI를 통합한 조직은 소수에 불과했다. 일반적으로 자원이 풍부한 대기업이 도입을 주도하고 있으나, 디지털화에 전반적으로 뒤처진 중소기업은 인프라와 기술, 투자 역량 부족으로 AI 도입 격차를 줄이는 데 어려움을 겪는 상황이라고 보고서는 밝혔다.
산업별 활용 사례에서는 4개 산업 모두 AI가 운영 및 서비스 제공 방식을 혁신할 수 있는 역량을 보유한 것으로 나타났다. 농업 분야에서는 AI 기반 정밀 농업, 로보틱스, 예측 분석, 모니터링을 통해 수확량 증가와 투입 자원 최적화가 가능했다. 보건의료 분야에서는 AI로 고급 수준 진단과 병원 운영의 예측적 관리, 행정 업무 자동화 등을 지원하는 게 가능한 것으로 나타났다. 제조 분야에서는 예측 유지보수, 품질 보증, 공급망 최적화가 가장 영향력 있는 응용 분야로 부상했다. 마지막 모빌리티 분야에서는 자율주행, AI 기반 대중교통 관리, 지능형 물류를 통해 안전하고 효율적인 운송 체계가 구현될 수 있는 것으로 나타났다.
물론 제조, 운송, 의료 분야에서 다양한 차세대 응용 기술이 부상하고 있지만, AI 전문인력 부족, 데이터 가용성‧품질‧상호운용성 부족 등이 AI 확산을 가로막는 주요 장벽을 형성한 것으로 나타났다. 보고서는 AI 전문인력 부족에 있어 AI 도입을 위해서는 기술 전문성과 해당 분야 지식을 모두 갖춘 인력이 필수적이나 전 분야에서 관련 인재와 기술이 부족한 상황으로 특히 중소기업은 전문인력 확보와 유지에 어려움을 호소하고 있다고 밝혔다. 데이터 이슈에서도 4개 분야 전체에서 대규모 고품질 데이터셋 부족과 데이터 인프라 파편화, 일관성 없는 표준, 데이터 공유 관련 법적 문제 등이 주요 과제로 부상하고 있다고 지적했다.
보고서는 EU 경제의 핵심 산업에서 AI 잠재력을 최대한 발휘하려면 인프라와 기술, R&D 역량 강화를 위한 지속적 노력과 함께 데이터 거버넌스와 상호운용성 및 시장 경쟁력 강화가 필요하다고 조언했다.
영국 정부 2026년 국제 AI 안전 보고서 발간
영국이 2026년 2월 3일 30개국 이상의 국가 및 EU·OECD·UN 등 국제기구 추천을 받은 독립 전문가 100여 명의 자문을 통해 작성된 ‘2026년 국제 AI 안전 보고서’를 발간했다. 보고서는 범용 AI 시스템 성능과 위험성, 해당 위험을 관리하는 방안을 제시하고 있고, 프런티어 범용 AI 시스템과 관련된 새로운 위험에 초점을 맞추어 정책 입안자의 선제 대응을 모색할 것을 제언하고 있다.
보고서에 따르면 범용 AI 성능은 지난 1년 사이 초기 학습 후 성능을 향상하는 ‘추론 시간 확장’ 기법에 힘입어 수학, 소프트웨어 엔지니어링, 과학 분야의 복잡한 추론 작업을 중심으로 대폭 향상했다. 그러나 AI 성능은 여전히 불균형적으로, 최첨단 AI 시스템이라도 이미지 속 객체 수 세기 물리적 공간 추론, 복잡한 작업흐름에서 기본적 오류 복구 등의 비교적 간단한 작업에는 취약한 것으로 드러났다. 보고서는 2030년까지 AI 발전 궤적은 불확실하나 현재 추세는 지속적인 발전이 예상되며, 기업은 컴퓨팅 파워가 발전의 핵심 요소가 될 것으로 수천억 달러 규모 데이터센터 투자가 예고된다고 밝혔다.
범용 AI 위험에 대해 보고서는 ①악의적 사용 ②오작동 ②시스템적 위험의 세 가지 범주로 구분했다. 악의적 사용에 있어서는 AI 생성물을 이용한 사기, 금융 범죄, 동의 없는 성적 이미지 제작 등의 범죄와 AI를 이용한 여론 조작, AI를 이용한 사이버 공격, 생물학적‧화학적 무기 개발 등의 위험이 대두되고 있다고 경고했다. 오작동 측면에서는 허위 정보 생성, 오류 코드 작성, 잘못된 조언과 같은 오류로 인한 신뢰성 문제와 함께, AI 시스템의 자율성이 점차 높아지면서 향후 시스템에 대한 통제력을 상실할 가능성도 제기하고 있다. 마지막으로 시스템적 위험 측면에서도 범용 AI는 지식노동 분야를 중심으로 광범위한 인지 업무를 자동화할 가능성이 높으며, AI 도구 의존도가 높아지면서 비판적 사고 능력이 약화하고 사회적 교류가 감소할 위험도 증가할 것으로 보고서는 봤다.
이에 대한 위험 관리 방안으로 보고서는 기술적‧제도적으로 다양한 접근 방식을 결합해 더욱 강력한 위험 관리를 제안했다. AI 기업은 범용 AI의 위험 관리 활동으로 취약점을 파악하기 위한 위협 모델링, 잠재적으로 위험한 행동을 평가하는 성능 평가, 증거 수집을 위한 사건 보고 등을 자발적으로 시행하고 있다고 보고서는 밝히면서, 최근에는 악성 출력을 유도하는 공격이 한층 어려워지는 등 기술적 안전장치가 개선되고 있으나 여전히 상당한 한계가 있으며 여러 안전장치를 중첩하는 방식으로 더욱 견고한 방어 태세가 필요하다고 지적했다. 또한 개방형 가중치 모델은 연구나 상업적 측면 이점에도 불구하고 일단 출시되면 회수가 불가능하고 안전장치를 쉽게 제거할 수 있으며 감시 환경을 벗어난 오용의 예방과 추적이 어렵다는 어려움을 내포하고 있다면서, AI 관련 피해 발생 시 충격을 흡수하고 회복하는 사회적 복원력을 갖추기 위해서는 핵심 인프라 강화, AI 생성물 탐지 도구 개발, 새로운 위험에 대응할 수 있는 제도적 구축이 필요하다고 강조했다.
글 / 이승한
사진 / AI 생성

