2023-03-02
THINKFORBL 사보 기술 파트 20호
이미 세상에서 문제되고 있는 편향 사건 사고
Thinkforbl
KNOWLEDGE
이미 세상에서 문제되고 있는 편향 사건 사고
1. AI 챗봇 ‘이루다’
AI 챗봇인 ‘이루다’는 2020년 12월에 출시돼 3주간 서비스를 진행한 적이 있다. 하지만 개인 정보 유출 이슈뿐만 아니라 ‘사람이 만든 데이터’를 학습한 ‘이루다’가 장애인, 동성애, 성차별적인 편견을 학습한 나머지 사회적으로 논란을 빚을 수 있는 말을 하여 결국 잠정적 서비스 종료하게 된다. 이후 ‘이루다’는 윤리적인 의식 함양을 통해 2022년 10월 이루다2.0을 선보였고 현재까지 편향에 대한 문제가 크게 부각하는 일은 없었다.
2. 러시아에서 체스 AI가 기물 대신 아이의 손가락을 잡다
러시아 모스크바에서 진행된 인간 대 로봇 체스 경기에 참여한 7살 소년이 손가락이 골절되는 사고가 있었다. 가장 큰 원인은 체스 기물을 AI가 완전히 움직인 상태에서 다음 수를 둬야 하는데 아이는 AI가 체스 기물을 놓기도 전에 움직였기 때문에, 아이의 손가락을 체스 기물로 인식하고 로봇손으로 아이의 손가락을 잡은 사건이다. 이는 설계 당시 손가락이 개입한다는 상황이 없었기 때문에 벌어진 일이라고 볼 수 있다.
3. 미국 백인처럼 영어 발음을 교정해주는 AI
미국 실리콘밸리 스타트업 새나스(Sanas)가 개발한 인공지능 기반 ‘발음 억양 교정 프로그램’의 경우 전 세계 다양한 영어 스타일이 아닌 획일화된 영어 발음을 가르친다는 것에 대해 인종차별적이라는 의견이 존재한다.
4. 페이스북, 흑인 남성 동영상을 ‘영장류’라고 분류
페이스북 AI가 흑인이 등장하는 영상을 시청한 사용자에게 영장류와 관련된 영상을 추가로 볼 것인지 묻는 경우가 있었다. 페이스북 AI의 자동 추천기능은 재생 중인 영상과 연관성을 분석해 사용자에게 다음 영상을 추천하는 과정에서 오류가 발생한 경우다.
5. 아마존의 AI 채용 시스템 논란
아마존은 과거 10년간의 지원자 이력서를 활용하여 채용을 도와주는 AI를 만들었다. 그런데 과거 10년간 지원자 대다수가 남성이다 보니 당연히 합격이 되는 사람도 남성이 많았다. AI는 과거의 편향된 데이터로 여성보다 남성을 채용하는 데 우선순위를 두게 된 사건이다.
글 / 김도현
2023-03-02
THINKFORBL 사보 기술 파트 20호
이미 세상에서 문제되고 있는 편향 사건 사고
Thinkforbl