2024-05-29
THINKFORBL COLUMN SERIES
[ICT광장] AI 윤리성 논의가 무의미해지는 이유
정보통신신문
 

1990년대에서 2000년대 사이, 인터넷이 보편화되면서 사회적 충격은 상당했다. 이전에는 상상할 수 없었던 방대한 정보를 앉은자리에서 소비할 수 있었기 때문에, 각종 웹사이트와 블로그, 웹채팅, SNS, OTT와 같이 이전에는 없던 문화와 산업들이 생겨났고, 반면에 비디오 대여점, 음반산업, 공중파 채널, 만화방과 도서 대여점 등이 빠르게 쇠퇴했다. 그러자 이에 대한 사회적 논의에서는 늘 장자의 ‘호접몽’ 이야기가 거의 자동으로 되풀이됐다. 장자가 나비 꿈을 꿨는데 꿈이 너무 생생해 장자가 나비 꿈을 꾸는지 나비가 장자 꿈을 꾸는지 몰랐던 것처럼, 인터넷 인프라로 인한 ‘사이버 공간’에서는 가상과 현실이 구분되지 않는 몽환적 세상이 올 것이고 인간은 정신 차리지 않으면 진짜 자아를 잃어버린다는 이야기를 많은 지식인이 불경 외우듯 반복했다. 그런데 한 세대 정도가 지나 돌이켜보면, ‘사이버 공간’ 앞에서 호접몽 이야기를 되풀이하던 것은 그냥 당시 사람들의 지적 게으름 아니었을까 생각이 든다.

지난 5월 21일과 22일 제2회 AI 정상회담이 서울에서 열렸다. 블래츨리 선언으로 유명한 제1회 회담에 이은 역사적인 자리였다. 그런데 여기서도 대다수는 인공지능(AI)의 안전 문제와 윤리성에 대해 원론적 이야기를 반복하는 데 그쳤다. 이미 5년 전부터 국가마다 AI 신뢰성에 대한 가이드라인과 종합대책이 나왔고, EU 집행위원회에도 3년 전에 법안을 발의했다. 심지어 전통을 상징하는 로마 교황청에서 AI 윤리 백서(Rome Call for AI Ethics)를 4년 전 발표했다. 그러면 이제는 더 구체적이고 현실적인 이야기를 해야, 지금의 기술적 격변에 제대로 대응할 수 있지 않을까? 건강에 대한 몇몇 체크리스트는 건강에 대한 문제점을 알게는 하지만, 건강하게 만들기는 어렵듯, 지금의 AI에 대한 윤리 체크리스트도 기술적 방법까지 제시하고 있지는 않다.

이를테면, AI에 대한 인간 감독(Human Oversight)을 기술적으로 어떻게 구현할 것인가? 인간이 실시간으로 수천만 건의 처리를 못 해서 AI가 필요한 것인데, 인간이 AI를 실시간 감시하다가 유사시 통제 버튼을 눌러야 한다면 애당초 AI가 필요할 이유가 없다. 또, 유사시 AI가 인간에게 통제권을 넘겨야 한다면 그 ‘유사시’의 기준도 중요하다. 예로, 자율주행차는 악천후(ODD) 시에 운전자에게 제어권을 넘겨야 하는데, 그 악천후의 기준은? 강풍이면 속도가 몇인지, 시시각각 바뀌는 풍속을 어떤 기준으로 측정해야 하는지? 지금이 위험 상황이라는 판단도 내 차 속도 외에 주변 상황까지 어떻게 고려해서 기술적으로 적용해야 하는지? 의료, 제조, 에너지, 치안 등 모든 산업 현장에서도 이렇듯 난해한 문제가 수두룩하게 산적해 있다. 소위 AI의 비윤리성이라는 것도, 대부분 이런 문제를 기술적으로 해결 못 해서 발생한 오작동이다.

그래서 AI의 도덕성에 대한 원론적 이야기로는 이제 기술 격변의 광풍 속에서 한 발짝도 나아갈 수 없을 것이다. 인터넷 격변 앞에서 호접지몽 이야기를 되풀이하던 것과 비슷하다. 네티즌, 네티켓, 구글 검색의 알고리즘 같은 게 새로 생겨나던 와중에 호접지몽 이야기가 무슨 도움이 되었을까? 그것은 어쩌면 그냥 당시의 격변에 대처할 능력도, 의지도 없었다는 의미가 아니었을까? 인터넷이 있든 없든 우리는 늘 꿈과 같이 불확실하고 변화무쌍한 세상에 산다. 인공지능과 무관하게 윤리 문제는 인간 사회에서 중요하지 않았던 적이 없다.

그 와중에 디트로이트에서는 만삭의 여성을 AI 시스템이 강도 사건 용의자로 오인식해 11시간 동안 구금되게 만들고, 구글의 온라인 광고 시스템은 고소득 구인 광고를 남성에게 더 자주 표시하고 있다. 이것은 AI가 나비의 꿈을 꾼 것도, 우리가 갑자기 도덕의 소중함을 잊어버린 것도 아니다. 이것은 신기술의 오작동 문제이며, 더 구체적으로는 AI에 대한 데이터 편향을 해결하지 못한 데서 야기된 문제이다. 요컨대 통제되지 않은 인공지능 기술의 ‘비윤리적인’ 오작동이 걱정된다면 인간 도덕성에 대한 선문답이 아니라 데이터 편향성에 대한 기술적 접근으로 대처해야 한다. 오작동 가능성이 큰 AI 기능을 규제하는 법률이 이미 유럽 시장에 적용되기 시작한 시점에서, 이제는 당연한 이야기를 반복하는 데 낭비할 시간이 없다.




[출처]​
- 관련 기사 :
https://www.koit.co.kr/news/articleView.html?idxno=122782
- 사진 :
디지틀조선일보_THE AI


MAGAZINE LIST
 
2024-05-29
THINKFORBL COLUMN SERIES
[ICT광장] AI 윤리성 논의가 무의미해지는 이유
정보통신신문
 
We think for a better life.