KNOWLEDGE
최신 인공지능(AI) 동향
OECD, AI 에이전틱 의 개념과 도입 현황을 다룬 보고서 발표
경제협력개발기구(OECD) AI 전문가 그룹이 AI 에이전트와 에이전틱 AI 개념과 특징을 명확히 구분하고 AI 에이전트 도입 현황과 해결 과제를 분석한 보고서를 발간했다. 복수의 소식통에 따르면, OECD AI 에이전트는 특정 목표를 달성하고 입력 및 맥락의 변화에 적응하고자 필요에 따라 도구를 사용하며, 일정한 자율성을 갖고 환경을 인지하고 행동하는 시스템으로 정의된다. 반면, 에이전틱 AI는 통상 복수의 AI 에이전트가 작업을 세분화하고 협력하며, 복잡한 목표를 장기에 걸쳐 자율적으로 추구할 수 있는 시스템을 의미하며 인간의 감독을 최소화하며 기능한다. 또한 AI 에이전트와 에이전틱 AI는 일정한 자율성을 갖고 목표를 추구하며 물리‧가상 환경 내에서 인지하고 행동할 수 있는 시스템이라는 점에서 기본적인 특징을 공유하며 서로 밀접한 관련성을 보유하고 있다.
에이전틱 AI 시스템은 단순한 기술 도구가 아니라 사회‧기술적 패러다임 내에서 작동하며, 자율적 행동뿐 아니라 다른 AI 에이전트, 인간 제도적 프로세스 간 상호작용에서 가치를 발휘한다. 각 주체 간 조율과 협상을 위해서는 고도의 추론 능력과 견고한 인프라, 신뢰성 있는 통신 프로토콜이 필요한 데, 개방형 환경이나 위험 부담이 큰 환경에서 책임 있고 효과적으로 작동하는 시스템을 설계하기 위해서는 에이전틱 AI 시스템의 사회적 맥락과 상호작용에 대한 이해가 필수적이다.
AI 에이전트를 향한 관심은 급속히 확대되는 추세로, 개발자 커뮤니티 Stack Overflow의 2025년 설문조사에 따르면 응답자 약 절반이 AI 에이전트를 업무에 활용 중이거나 도입을 계획하는 것으로 나타났다. 구글 트렌드 기준 ‘에이전틱 AI’ 검색량은 2025년 들어 급증했으며, AutoGPT, BabyAGI, OpenDevin 등 에이전틱 AI 프레임워크를 활용한 깃허브 저장소는 2023년 초부터 2025년 중반까지 920% 증가했다. AI 에이전트를 사용하는 핵심 분야는 소프트웨어 엔지니어링으로 나타났으며, 데이터 및 분석, IT 운영, 비즈니스 프로세스 자동화, 의사결정 지원, 고객 서비스 지원 등이 다음 순서를 차지한다.
그러나 에이전트를 사용하는 대다수 개발자는 데이터 보안‧프라이버시 및 AI 에이전트가 제공하는 정보의 정확성에 우려를 표시해 신뢰할 수 있는 AI 에이전트 구축 필요성을 시사하고 있다. 이에 대해 OECD AI는 에이전트 활용 사례와 기술 아키텍처에 대한 이해 수준을 높임으로써 안전장치와 표준이 필요한 우선 영역을 파악하고, 연구와 정책 수립을 위한 추가 분석 작업이 가능할 것으로 기대했다고 소식통은 전했다.
오픈 AI의 악의적 사용을 다룬 사례 연구 보고서 발간
오픈 AI가 2026년 2월 25일 자사 AI 모델의 악의적 사용을 탐지하고 예방하기 위한 사례 연구를 담은 ‘AI의 악의적 사용 차단’ 보고서를 발표했다. 해당 사례 연구에 따르면 위협 행위자들은 AI를 단독으로 사용하는 경우가 거의 없으며, 웹사이트나 SNS 계정과 같은 전통적인 도구와 AI를 결합하여 함께 사용하고 있는 것으로 나타났다. 또한 위협 활동이 하나의 플랫폼에 국한되는 경우도 거의 없고 복수의 플랫폼을 통해 이루어지며, 하나의 AI 모델에만 의존하는 대신 운영 과정의 여러 단계에서 서로 다른 AI 모델을 활용하고 있었다.
오픈 AI는 중국 법 집행 기관과 연계된 챗GPT 계정을 차단한 사례를 집중적으로 다루면서, 이 계정이 수십 개 플랫폼에 걸친 수천 개의 가짜 계정을 동원해 ‘사이버 특수작전’을 운영했다고 설명했다. 이 계정은 반체제 인사 신고, 문서 위조, 미국 관리 사칭 등 수십 가지 전술을 구사했으며, 일본 총리를 겨냥한 비밀 여론공작은 모델의 거부로 실행에 실패했으나 이후 다른 방식으로 작전을 독자적으로 실행했다고 보고서는 밝혔다.
또 다른 핵심 사례는 동남아 기반 로맨스 스캠으로, AI는 사기 과정을 더욱 정교하게 구성하는 데 사용되나 기본 구조는 여전히 접촉을 통한 감정 유도에 이은 금전 갈취의 전통적 사기 수법을 유지했다. 특히 캄보디아발로 추정되는 한 사례에서는 가짜 데이트 서비스가 인도네시아 남성을 겨냥해 SNS 광고를 집행하고 AI 챗봇과 인간 운영자가 함께 대화를 이어가며 피해자를 텔레그램으로 유도한 사실이 드러나기도 했다. 피해자와 친밀감을 조성한 뒤 각종 미션과 수수료 명목으로 반복 송금을 요구했으며, 이 과정에서는 AI 자체보다 광고 대상 물색과 유통 채널, 운영 조직이 사기 행위의 성공에 더 큰 역할을 발휘했다.
세 번째 사례는 러시아 조직과 연계된 콘텐츠 대량 생성과 정보 조작 활동으로, 관련 계정들은 챗GPT로 다국어 게시물과 댓글을 생성해 ‘X’와 ‘텔레그램’에 대규모로 배포됐다. 그러나 같은 프롬프트로 생성된 유사 게시물이라도 이를 게시한 계정의 팔로워 수와 기존 영향력에 따라 일부는 수십만 조회 수를 기록했지만, 일부는 전혀 주목받지 못한 것으로 확인됐다.
한편 오픈 AI는 사례 연구를 통해 AI는 그 자체로 위협이 아니라 기존 위협 행위의 효율화 수단이며, 위협 행위자들이 AI로 생성한 콘텐츠뿐 아니라 이들의 특성과 행동 방식에 주목해야 한다고 강조했다. 보고서에 다룬 사례들은 모두 AI로 생성된 콘텐츠를 사용했으나 성과는 매우 달랐으며, 이는 AI 생성물 자체가 결정적 요인이 아니고 게시물을 올린 계정의 인기나 영향력이 더 중요함을 시사한다고 보고서는 밝혔다.
글 / 이승한
사진 / OECD

