2022-12-01
THINKFORBL COLUMN SERIES
[인터뷰] “윤리와 기술의 밸런스가 올바른 ‘AI 신뢰성’ 만든다”
컴퓨터월드
 

[컴퓨터월드] 오늘날 인공지능(AI)은 더 이상 영화 속의 이야기가 아니다. 이미 AI는 산업 분야를 막론하고 다양한 곳에서 서비스 품질을 높이고 혁신을 가속화하는 데에 활용되고 있다. 하지만 AI의 역할이 커질수록 AI가 이상을 일으켰을 때 발생할 사고 위험성도 높아지고 있다. 이에 따라 전 세계 정부와 기업들은 너나할 것 없이 ‘믿을 수 있는 AI’, AI 신뢰성에 대한 문제에 관심을 기울이고 있다.

씽크포비엘은 올해 과학기술정보통신부(이하 과기부) 및 정보통신기술협회(이하 TTA)와 함께 ‘신뢰할 수 있는 AI 개발 가이드’를 제작했다. 해당 가이드를 통해 AI 신뢰성과 관련한 국내 기술 수준을 높이고 산업계 성장을 지원하겠다는 목표다. 씽크포비엘 박지환 대표를 만나 자세한 얘기를 들어봤다.

과기부-TTA, ‘AI 신뢰성 개발 가이드’ 제작

지난해 5월, 과기부를 중심으로 다수의 정부부처들이 ‘신뢰할 수 있는 AI 실현전략’을 발표했다. AI가 모든 산업 분야에 빠르게 도입되면서 새로운 가치를 창출해내고 있지만, 이로 인해 예기치 못한 사회적 문제가 발생할 위험성도 빠르게 증가하고 있기 때문이다. 과기부는 “사람이 중심이 되는 AI 강국으로 도약하기 위해 ‘신뢰할 수 있는 AI’ 실현을 위한 지원 정책이 조속히 필요하다”고 강조하며, ‘신뢰할 수 있는 AI 실현전략’을 통해 AI가 가져다 줄 수 있는 혜택은 극대화하면서도 부작용은 최소화할 수 있는 기반을 만들어나가겠다고 밝혔다.

‘신뢰할 수 있는 AI 실현전략’은 AI 신뢰성 확보를 위한 기술 확보와 기반 조성, 안전한 학습용 데이터 마련, 개발된 AI에 대한 사회적 영향평가 실시 등 다양한 방면에서 추진됐다. 특히 주목해야 할 것 중 하나는 ‘신뢰할 수 있는 AI 개발 가이드’를 만들겠다고 밝혔던 점이다. 해당 가이드는 최신 기술을 활용해 AI를 개발할 때 결과물의 신뢰성을 높이기 위해서는 어떤 요소들을 고려해야 하는지, 실제 프로젝트 중에는 어떤 장애 요소가 있는지, 완성된 AI의 신뢰성을 검증하려면 어떤 방법을 사용해야 하는지 등의 내용을 담았다.

과기부와 TTA를 포함해 데이터와 AI에 대해 전문성을 가진 기관과 기업들이 제작에 참여했으며, 올해 1월에 ‘2022 신뢰할 수 있는 AI 개발 안내서(이하 가이드)’가 성공적으로 발표됐다. 다만 첫술에 배부를 수는 없듯, 1월에 공개된 가이드가 국내 AI 기업들과 관련 업계 전문가들을 모두 설득하지는 못했다. 가이드에서 제시하는 방법과 전략들이 현실적이지 않은 경우가 많고, 실제로 AI 개발 현장에 도입하기에는 기술적인 고찰이 부족한 부분도 많다는 지적이다.

이에 과기부와 TTA는 올해 5월부터 ‘AI 신뢰성 요구사항 도출 연구 용역’ 사업을 새롭게 발주하며, 지난 1월에 발표한 가이드에서 부족한 부분을 개선해 새로운 ‘2023 신뢰할 수 있는 AI 개발 안내서’를 만들겠다고 밝혔다. 문제점으로 지적됐던 현실적인 개발 방법론 제시와 기술적인 대안 수준 향상 등에 초점을 맞춰, 국내에서 AI를 개발하고 있는 기업들에게 실질적인 도움을 줄 수 있는 가이드를 새롭게 만들겠다는 목표다.

특히 올해 연구 용역 사업에서 주목받은 부분은 가이드를 제시하는 산업 영역을 축소했다는 점이다. 지난해 개발한 가이드에서는 AI가 적용될 수 있는 모든 산업 영역에 대해 보편적으로 적용될 수 있는 방법을 제시하려다보니 현실성이 떨어지는 결과가 나타났기 때문이다. 따라서 올해에는 △자율주행 △의료 △금융 △공공사회 등 4개 분야가 우선 연구 분야로 선정됐다.

조달청 입찰 결과, 올해 ‘신뢰할 수 있는 AI 개발 안내서’ 연구 용역 사업은 4개 분야 모두 씽크포비엘(대표 박지환)이 수주했다. 씽크포비엘은 그동안 AI 신뢰성 검증 분야에서 우수한 비즈니스 역량을 증명해왔고, 다수의 AI 관련 특허를 획득하거나 TTA 단체표준에 채택되며 공신력도 쌓아왔다. 또한 글로벌 SCI급 저널과 학회에 지속적으로 논문을 게재하면서 자사의 뛰어난 기술적 역량도 증명해왔다. 국내 기업들을 위한 ‘신뢰할 수 있는 AI 개발 안내서’를 제작하는 데에는 이견이 없을 만큼 최적의 기업이라는 평가다.

이번 연구 용역 사업에서는 금융당국과 TTA의 협의에 따라 금융 분야가 우선 연구 분야에서 빠지게 됐고, 씽크포비엘은 자율주행‧의료‧공공사회 등 나머지 3개 분야에서 AI 개발 가이드를 제작했다. 해당 가이드는 지난 11월 24일 ‘AI 윤리확산을 위한 공개 정책 세미나’에서 초안이 공개됐으며, 향후 보완 작업 등을 거쳐 12월 9일 최종안이 마련될 예정이다.

씽크포비엘 박지환 대표를 만나 국내 AI 신뢰성 연구 및 시장 동향과 ‘신뢰할 수 있는 AI 개발 안내서’ 제작과 관련된 이야기를 들어봤다.

AI 신뢰성의 기본 검증 체계부터 다잡는다

Q. 국내의 AI 신뢰성 관련 동향은?

AI 신뢰성에는 크게 두 가지 축이 있다. 바로 윤리적 관점과 기술적 관점이다. 한글로는 둘 다 ‘신뢰성’으로 번역하지만, 영어로는 ‘trustworthy’와 ‘reliability’로 구분해서 사용한다.

먼저 trustworthy는 윤리적인 관점에서의 신뢰성이다. AI가 일반적으로 통용되는 사회 규범에 맞게 행동하는지, 중요한 순간에 윤리적이고 올바른 선택을 할 수 있는지를 의미한다. 반면 reliability는 기술적 관점에서의 신뢰성을 뜻하는데, 여기서는 AI가 지시에 따라 정상적으로 동작함으로써 원하는 목적을 달성할 수 있는지가 중요하게 여겨진다. AI가 사회의 일반 상식을 잘 학습했지만 기술적인 완성도가 떨어질 수도, 반대로 기술적으로는 완벽하게 동작하지만 사회 통념에 맞지 않는 선택을 할 수도 있다. 따라서 이 두 가지를 AI 신뢰성이라는 용어로 뭉뚱그려서는 곤란하다.

한편 최근 국내에서는 AI 신뢰성 중 윤리적인 측면만을 강조하는 경향이 있다. 여기에는 지난해 산업계를 뜨겁게 달구었던 스캐터랩의 ‘이루다 사건’이 많은 영향을 미쳤을 것이다. 이루다 이후 AI에 대한 권리장전, 윤리장전 등이 앞다투어 발표되면서 AI 신뢰성과 관련된 중요한 이슈들을 덮어버렸다. 마치 AI 신뢰성을 확보했다는 말이 ‘착한 AI’만을 의미하는 것처럼. 윤리장전이나 ‘착한 AI’가 중요하지 않다는 것은 아니지만, 반대로 ‘착한 AI’만이 중요한 것도 아니다.

의사가 아무리 선한 의지를 가지고 있다고 해도 그것만 가지고는 사람을 살려낼 수 없으며, 상처와 질병에 대응할 수 있는 지식과 기술이 뒷받침돼야 한다. AI 역시 마찬가지다. 윤리적인 부분만 강조해서는 AI 신뢰성을 확보했다고 할 수 없다. 윤리적으로 올바르게 행동하면서도 기술적으로 빈틈없이 동작하는 AI만이 진짜 ‘믿을 수 있는 AI’다.

Q. 스캐터랩은 최근 다시 이루다 서비스를 시작했는데.
당시 스캐터랩은 사회적으로 엄청난 지탄을 받았는데, 그럼에도 불구하고 포기하지 않고 꾸준히 노력해서 이루다 서비스를 잘 만들어냈다고 생각한다. 지속적으로 자사의 서비스에 어떤 문제가 있는지 밝히고 이를 어떻게 극복했는지 설명하면서 신뢰를 쌓은 것이 효과적이었다고 본다.

다양한 대화 주제에 대응할 수 있는 ‘진짜 사람 같은 AI’를 만드는 것은 아직 쉽지 않기 때문에, 아마 이루다에도 아직 해결하지 못한 기술적 문제들이 많이 남아있을 것이다. 하지만 이런 문제들이 오히려 산업 전반적으로 AI 신뢰성을 확보하기 위한 기술적인 한계에 대해 인식시켜줄 수 있는 계기가 될 것 같다. 기업이 선한 의도로 AI를 개발한다고 해도 아직은 기술적인 문제에 봉착할 수밖에 없다는 인식 말이다. 이런 문제는 스캐터랩과 같은 하나의 기업이 자구적인 노력을 통해 해결하게 두어서는 안 된다. AI 분야에 함께 발담그고 있는 학교와 기업과 기관들이 협력해 모두가 사용할 수 있는 범용 기술의 수준을 높이고 확산시켜 나가야 한다. 이러한 관점에서 과기부와 TTA가 추진한 ‘신뢰할 수 있는 AI 개발 안내서(이하 가이드)’ 제작 사업은 무척 잘 한 일이라고 생각한다.

Q. 가이드 제작 사업이 중요한 이유는?
가령 어떤 사람이 적분 문제를 풀었다고 하자. 이 얘기를 들었을 때 가장 궁금한 것은 정답을 맞췄는지가 아니다. 적분을 하는 올바른 방법이 있는지, 문제를 푼 사람이 적분을 할 줄 아는지, 적분하는 방법을 올바르게 적용했는지 등이다. 이것들을 검증할 수 있다면 정답 여부는 확인하지 않아도 자연스럽게 알게 된다. 반대로 이것들을 검증하지 못한다면 그 사람이 정말 문제를 풀었는지, 아니면 그냥 찍어서 맞췄는지 알 수 없다.

같은 질문은 AI 신뢰성 문제에도 적용 가능하다. 한 기업이 믿을 수 있는 AI를 개발했다고 주장했을 때 우리는 믿을 수 있는 AI를 만드는 방법이 있는지, 해당 기업이 그 방법(기술)을 보유하고 있는지, 보유하고 있다면 그 방법을 잘 적용했는지 등을 검증해야 한다. 그런데 우리는 첫 번째부터 막힌다. 믿을 수 있는 AI를 만드는 방법이 무엇인지 모르기 때문이다. 정답지에는 ‘윤리적이면서도 기술적으로 잘 작동하는 AI’라는 답이 쓰여있는데, 그 답을 추론하는 중간과정이 없는 것이다.

이건 비단 우리나라만이 아니라 기술의 최첨단을 달리는 전 세계 국가들도 완전히 해결하지 못하는 문제다. 이 문제를 해결하기 위해 다른 국가들은 인증 컨설팅 사업을 키우는 추세다. 전문성을 가진 컨설턴트들이 기업들이 AI 개발 과정에서 헤메지 않도록 도와주고 결과물이 잘 나왔으면 인증을 부여해주는, 인증 장벽을 세우는 산업 시장이다. 인증 중심의 시장 성장도 나름대로 장점은 있겠으나, 긍정적으로 보이지는 않는다.

한편 우리나라에서는 과기부와 TTA가 다른 방식으로도 문제를 해결하려고 하고 있다. 지난해부터 추진된 가이드 제작 사업이 그것이다. 다양한 산업 레퍼런스와 연구들을 검토해 믿을 수 있는 AI 제작 방법을 만들고 모든 기업들이 이용할 수 있도록 배포한다면 국내 AI 산업의 수준이 전반적으로 크게 높아질 것이다. AI 신뢰성 분야에서 전 세계를 리드할 수 있는 선도적인 입지를 확보할 수도 있을 것이다. 특히 과기부와 TTA가 지난해 제작했던 가이드의 부족한 부분에 대해 질타를 받았는데도, 이게 반드시 필요한 것이라는 인식을 확고히 하고 올해에는 더 잘 만들어보겠다고 나서준 것에 대해 박수를 보내고 싶다.

세부 분야별로 최적화된 가이드 제작에 집중

Q. 올해 가이드는 왜 일부 산업 분야만 대상으로 삼았는지?
지난해 가이드에는 AI 모델이 올바르게 동작하고 있다는 것을 지속적으로 모니터링해야 한다는 항목이 있다. 아마 유럽법에서 따온 것 같은데, AI가 적용될 수 있는 모든 분야에 공통적으로 적용될 만한 것은 아니다. 가령 자율주행차는 가용할 수 있는 모든 자원을 안전한 주행을 위해 사용해야 한다. 주행 중에는 전방의 사물을 인식하고 잘 피해가는 것에 집중해야지, 그 사물을 어떻게 탐지하고 피해가야 할 것으로 판단했는지 분석하는 것은 자원을 낭비하는 일이다.

AI가 적용되는 분야에서는 정답이 없는 문제에 대해 판단을 내려야 하는 경우도 있다. 우리가 누군가에게 “참 예쁘게 생겼다”고 말했을 때, 말한 사람과 듣는 사람의 관계에 따라 칭찬으로 들릴 수도 있고 기분이 나쁘거나 인권을 침해하는 것으로 들릴 수도 있다. 정서적인 판단을 요구하는 분야에서는 절대적인 참이 존재하지 않으니 AI에게 보편타당한 판단을 학습시키기 어렵다. 이러한 가운데 어떻게 AI가 올바르게 동작하고 있다는 것을 모니터링 할 수 있을까?

지난해 가이드에서는 전 산업군에서 공통적으로 중요한 상위 레벨의 제안과 규정들을 만들다보니, 하위 레벨의 실제 산업 현장에서는 현실적이지 못한 항목들이 있었다. 이런 항목들은 산업 현장의 현실적인 요소들을 고려해 재해석되거나 조정돼야 한다.

그래서 과기부는 올해부터 각 산업군별로 세분화된 가이드를 만들 계획이다. 올해에는 자율주행, 의료, 금융, 공공사회 등 4개 분야가 대상이었고, 최종적으로는 금융이 빠져서 3개 분야가 선정됐다. 아마 내년에는 또 다른 산업 분야를 대상으로 실제 현장에 맞는 가이드를 제작하게 될 것이다.

Q. 가이드 제작 사업에서 가장 어려웠던 점은?
무엇보다 선행 사례를 찾기가 어려웠다는 점이다. 예를 들어 올해에는 자율주행 분야가 포함돼 있었는데, 익히 알려져 있다시피 자율주행은 아직 미완성된 기술이다. 전 세계에 상용화된 레벨4 자율주행차 자체가 없는데 이번 가이드에서는 관련 규정을 만들어야 한다. 관련 동향이나 사례를 찾아보려고 해도 대다수 기업들은 중요한 정보들을 공개하지 않으려 하고, 기껏 찾을 수 있는 것은 실제 산업 현장과는 다소 거리가 있는 대학이나 학회의 연구논문 등이었다. 그러니 새로운 규정을 만들고 검증해나가는 과정이 무척 어렵고 많은 시간이 소요됐다. 윤리에 대해 공부할 수 있는 교과서를 만들어야 하는데 윤리가 무엇인지부터 정의해야 하는 수준이다.

이번 가이드를 만들기 위해 전 세계 레퍼런스와 논문을 찾을 수 있을 만큼 찾고, 이것들을 국내 동향과 산업 분야에 따라 구분하고 재해석해서 실제로 적용 가능한 수준으로 만들었다. AI 개발 라이프 사이클에 맞춰 데이터와 모델, 인터페이스 구성 등 세부 항목에 맞춰 구체적인 제안과 방법들을 제시했다. 이것 역시 글로벌 레퍼런스를 통해 이미 검증된 방법, 일부 기업에서 시도하고 있는 방법, 아직은 아이디어만 있는 방법 등을 나누어 제공함으로써 가이드를 읽은 기업이 선택적으로 활용할 수 있도록 했다. 사업 기간 대비 해야 할 일이 많고 요구 수준도 높아 자사의 석‧박사급 인력만 해도 10명 이상이 풀투입됐지만, 국내 AI 산업 전반이 성장할 수 있는 기회라는 생각으로 열과 성을 다하고 있다.

Q. 향후 산업계 전반의 AI 신뢰성과 관련해 가장 필요한 것은?
최근 AI 신뢰성과 관련해 많은 인증 제도들이 나오고 있다. 실제로 해외에서는 AI 인증 컨설팅 산업이 빠르게 성장하고 있으니 전혀 틀린 방향은 아닐 것이다. 다만 우려되는 것은 AI를 검증하고 인증을 부여하기 위한 기반이 닦이지 않은 채 인증 비즈니스 측면에서의 성장이 먼저 이뤄지는 경우다.

과거에 중국 정부가 자국의 월드컵 성적을 높이기 위해 축구 인프라에 막대한 비용을 투자했다. 하지만 결과적으로 투자한 만큼의 효과는 거두지 못했다. 이에 대해 전 국가대표 이천수 선수는 투자의 방향이 잘못됐다고 지적했다. 장기적으로 월드컵 성적을 높이기 위해서는 유소년 축구에 대한 투자가 이뤄져야 하는데, 당장의 성적에 급급해 자국의 스타 선수들에게만 투자를 집중했다. 이런 방법으로는 현역 스타 선수들이 은퇴한 뒤에 결국 제자리걸음만 하게 된다는 것이다.

우리나라가 장기적으로 ‘믿을 수 있는 AI’를 만들고 AI 신뢰성 시장에서 선도적인 입지를 확보하기 위해서는 유소년에 대한 투자가 이뤄져야 한다. 산업이 성장하기 위해서는 전문가가 필요하고 이를 양성할 수 있는 교육 기반도 많아야 하다. 요즘은 초등학생이나 중학생들도 코딩이나 AI에 대한 공부를 많이 하고 있는데, 이런 곳에서도 AI 신뢰성에 대한 관심을 가져주면 하는 바람이다. AI를 개발하는 엔지니어만큼이나 AI 신뢰성을 검증하는 엔지니어가 따로 있어야 할 만큼 전문성이 필요한 분야이기 때문이다.

지난해 씽크포비엘은 군산대학교와 협력해 IT학과 학생들을 대상으로 AI 신뢰성 관련 교육 과정을 만들고 운영했다. 반응이 좋아서 올해에도 재차 교육 과정을 만들었다. 지방 대학교 학생들은 본인들이 수도권 학생들보다 뒤처져 있다는 불안감을 가지고 있는 경우가 있는데, AI 신뢰성과 같이 새로운 기술 분야는 지방과 수도권을 가리지 않고 모두를 동일한 출발선으로 데려다준다. 여기서 누가 한 발 먼저 시작했느냐가 미래의 어드벤티지가 된다. 그래서인지 수업에 지원하는 학생들도 많았고 평가도 좋은 편이었다. 미래에 그들이 졸업할 때쯤에는 AI 신뢰성 분야에서도 충분한 시장이 만들어질 수 있도록 더욱 열심히 노력하고자 한다. 

--------------------
[출처]
- 관련 기사 : http://www.comworld.co.kr/news/articleView.html?idxno=50738​ 


MAGAZINE LIST
 
2022-12-01
THINKFORBL COLUMN SERIES
[인터뷰] “윤리와 기술의 밸런스가 올바른 ‘AI 신뢰성’ 만든다”
컴퓨터월드
 
We think for a better life.