지난 3월, 유럽연합(EU)은 인공지능 규제법(AI Act)을 최종 승인하여, 24개월 이내에 전면 시행하기로 했다. 이제 유럽 시장에서, 모든 종류의 인공지능(AI) 관련 제품과 서비스는 이제껏 존재한 바 없었던 고강도 규제의 적용 대상이 된다. 제 1세계에서 AI 관련 법 규제를 본격화하면서, 각국의 대응 움직임도 빨라지고 있다. 지난 4월, AI 표준화를 담당하는 국제기구 SC42의 총회가 서울에서 개최되었다. 5월에는 블래츨리 선언으로 유명한 인공지능 안전 정상회의(AI Safety Summit)가 2차 회의를 서울에서 개최한다. 그 와중에 오픈AI는 한층 더 자연스럽게 대화가 가능한 GPT-4o를 발표했다. 휴머노이드에 탑재한다면 SF영화에서 나올 법한, 사람처럼 대화하고 반응하는 로봇이 가능해질 만한 기술이 눈앞에 다가왔다고 해도 좋다. 요컨대 ‘인공지능의 세상’은 우리 생각 이상으로 빠르게 구체화되는 중이고, 우리는 원하든 원치 않든 그 변화의 한가운데에 있다.
격변의 한가운데에 있다는 것은 기회인 동시에 위기이기도 하다. 최근에 필자는, 인공지능을 행정에 도입하는 목적으로 공공기관, 공기업 등에서 발주한 사업들을 자세히 살펴볼 기회가 있었다. 검토 결과 대부분의 서비스 사업들이 EU의 법 기준으로는 금지 대상이라서 최소 500억의 과징금을 물어야 하거나, 높은 수준의 인증을 받아야만 출시할 수 있는 것들이었다. 여기서 높은 수준의 인증이란 위험 관리, 동작에 대한 기록, 개발 과정의 투명성 제시, 인간 감독에 의한 유사시 작동 통제 등 8개 영역에서의 준칙을 지켜야 한다는 것을 의미한다. 요컨대 해당 서비스들은 EU가 주도하는 국제 기준 하에서의 시장 경쟁에서 살아남을 수 없다. 또한 유사한 방식으로 개발된 국내 기업의 제품들은 해외 진출이 사실상 원천 봉쇄될 것이다.
이렇게 되는 것은 인공지능에 대한 세계 시장의 기준이 성능보다 신뢰성을 중시하는 구조로 바뀌었기 때문이다. 쉽게 말해 사람처럼 생각하고 움직이는 인공지능의 실현을 눈앞에 둔 상황에서, 그리고 그런 인공지능과 함께 일하고 생활하게 될 상황에서, 사회는 이제 ‘영리한 인공지능’보다도 ‘믿을 만한 인공지능’을 원한다. 여기서 믿을 만하다는 것은 인간사회의 최소한의 윤리 기준을 지키고, 가능하면 각 사회의 문화적 금기들을 어기지 않아야 한다는 뜻이다. 아무리 성능이 우수하더라도, 모 AI 스피커처럼 아이에게 전기 소켓에 손가락을 넣는 놀이를 가르치는 인공지능 보모는 사회가 용납할 수 없다는 것이다.
이제 단순히 양질의 인공지능 기술을 개발하거나 적용하는 것만으로는 격변하는 ‘인공지능의 세상’에 자리 잡을 수가 없다. 개발하는 처지에서는 품질 이상으로 신뢰성 부분을 면밀하게 검토해야 하며, 적용하는 처지에서도 사용하려는 인공지능이 신뢰할 만한 것인지를 먼저 따져봐야만 낭패를 보지 않는다. 바꿔 말하면 신뢰성 문제를 선제적으로 잘 대비한다면 기술 개발에서나 기술 활용에서나 압도적인 경쟁력을 갖출 수 있다는 의미이기도 하다. 그렇지 못한 인공지능들이 저절로 시장에서 퇴출할 것이기 때문이다. 격변의 시대에는 먼저 올바른 방향을 잡은 쪽이 승리하기 마련이다.
이를테면 기업은 서비스 기획 단계에서부터 법적 위험성을 분석하여 리스크를 회피해야 한다. 이때에는 인공지능과 관련해 새로이 만들어진 법들과 함께, 기존 산업에 적용되어온 오래된 법들까지를 검토해야 한다. 무엇보다 개발 후에 뒤늦게 법적 위험성을 검토하는 것이 아니라, 개발의 단계 단계마다 법 기준과 산업적 요구사항을 수시로 검토해야만, 인공지능의 오작동으로 인해 기업이 본의 아니게 범법자가 되는 상황을 방지할 수 있다.
학교에서는 인공지능 기술과 관련하여 신뢰성 관련 분야의 교육이 중요해진다. 여기에는 데이터 편향, 데이터 거버넌스, 오픈소스와 공개 데이터 활용의 위험, 모델 추출 공격이나 교란 공격에 대한 방어 기술, 운영하는 과정에서 재학습되는 인공지능 시스템에 대한 벨리데이션 체계 등을 가르치는 일이 포함된다. 학생들이 졸업 후 업계에서 맡게 될 직무들도 그것에 맞게 더 세분화할 것이다. 유럽의 ALTAI에서는 6개 영역의 AI 신뢰성 직무를 제시하였고, 필자는 자체적으로 8개 직무를 규정한 바 있다. 이는 인공지능 분야의 인재풀을 확충하는 동시에 신기술 분야에 새로운 고용을 창출하는 일이기도 하다.
신뢰성 검토가 가장 중요해지는 것은 무엇보다 공공 영역이다. 민간의 서비스는 신뢰성에 문제가 있으면 해당 기업이 손해를 보거나 퇴출할 뿐이지만, 공공의 서비스가 신뢰성을 갖추지 못할 시에는 사회 전체에 문제가 생긴다. 안면인식 시스템이 흑인을 이유 없이 범죄자로 간주하여 물의를 일으켰던 미국의 사례에서 알 수 있듯, 사회 구성원의 기본권을 심각하게 훼손할 수 있기 때문이다. 그래서 EU 법안에서도 공공 서비스는 특별히 고위험 영역으로 분류되어 있다. 사업 발주 단계에서부터 프로젝트 특성에 부합하는 신뢰성 검증이 필요하며, 이후 운영 과정에서도 데이터 오염으로 인한 오작동이 없게끔 지속적인 검증과 관리체계가 동반되어야만 한다.
[출처]
- 관련 기사 :
https://www.newstheai.com/news/articleView.html?idxno=5474
- 사진 :
디지틀조선일보_THE AI