KNOWLEDGE
최신 인공지능(AI) 동향
‘레벨4’ 자율주행車 사고 땐 AI 기업에 책임 묻는다
운전자 개입 없이 스스로 작동하는 완전 자율주행 기술이 국내 인공지능(AI) 기업에 사고 책임을 묻는 중점 규제 대상으로 지정됐다. 정부는 이를 포함해 에너지·교육·의료 등 AI의 파급효과가 큰 10개 분야 규제 기준을 구체화해 산업 육성에 필요한 기술 안전성 확보에 나설 방침이다.
우선 자율주행차는 운전자가 개입하는 현재 기술 수준인 ‘레벨3’은 해당이 되지 않지만, 장차 보급될 ‘레벨4’부터는 고영향 AI로 취급된다. 교육 현장에서 기초학력 진단검사, 생활기록부 작성 등 평가 관련 업무에 교사가 개입하지 않는다면 고영향 AI가 된다. 인공심폐장치나 인공혈관처럼 환자에 미치는 영향이 큰 의료기기법상 4등급 기기에 적용된 AI, 원전 사고 예방에 필수적인 원자력 ‘안전 등급’ 시설에 적용된 AI도 마찬가지다.
이를 포함해 에너지, 먹는 물, 보건의료, 의료기기, 원자력, 범죄 수사·체포, 채용·대출심사, 교통, 공공서비스, 교육 등 생명이나 기본권에 위험을 초래할 수 있는 10개 분야의 AI 개발사나 이용 사업자는 가이드라인에 따라 자사 기술이 고영향 AI에 해당하는지 사전에 확인하고 사고 예방과 대응, 이용자 보호 대책 등을 담은 위험관리방안을 수립해야 한다. 위반 시 과태료 최대 3000만 원 부과와 시정조치 등 제재가 가해진다.
이와 별개로 아직 안전성이 완전히 확인되지 않은 글로벌 최신 AI 모델인 프론티어 모델은 ‘고성능 AI’로서 더 강한 규제를 받는다. 해당 사업자는 기술은 물론 인권, 개인정보 보호, 윤리, 사이버보안 등 다학제적 전문인력으로 위험평가조직(RAT)을 꾸리고 자사 기술의 심각성·중대성·실현 가능성·빈도·관리 가능성을 평가해 관리 대책을 매년 과기정통부에 보고해야 한다. 그 외에도 파인튜닝(미세조정) 등 AI 모델 변경으로 위험이 증가하면 한 달, 사고 발생 시 일주일 내 별도 보고해야 한다. 다만 현재 국산 모델 대부분은 고성능 AI에 해당하지 않아 GPT 같은 글로벌 빅테크 모델에 대한 규제가 될 전망이다.
AI 비건, 디지털 불편을 감수하는 새로운 환경 운동
최근 영국 일간지 <더 가디언. The Guardian>과 학술 기반 매체 <더 컨버세이션, The Conversation>은 ‘AI 비건(AI Vegan)’이라 불리는 새로운 라이프스타일을 조명했다. AI 비건은 인공지능(AI) 기술의 사용을 자발적으로 제한하거나 거부하는 사람들을 일컫는다. 이들은 데이터센터의 막대한 전력 소비와 탄소 배출, 전자폐기물 증가 등 AI 기술이 초래하는 환경적 부담을 이유로 들고 있다.
AI 비건의 기본 인식은 “디지털 소비에도 탄소발자국이 있다”는 점이다. 대규모 AI 모델의 학습 과정은 방대한 전력을 소모한다. 일부 연구에 따르면 최신 AI 모델을 한 번 학습하는 데 필요한 전력은 평균 가정 500가구가 1년 동안 사용하는 전력량에 해당하며, 데이터센터 냉각 과정에서도 상당한 온실가스가 배출된다. 또한 서버와 반도체 제조에는 리튬·희토류 등 환경 부담이 큰 광물 채굴이 필수적이며, 장비 교체 주기가 짧아지면서 전자폐기물 문제도 심화하고 있다.
이 운동은 ‘불편함’을 실천의 전제로 한다. AI 비건들은 클라우드 대신 로컬 저장 장치를 사용하고, AI 검색 대신 전통적인 검색 엔진이나 서적을 활용한다. 고화질 영상 스트리밍과 대용량 데이터 전송을 줄이며, 저전력 기기나 재활용·리퍼브 제품을 사용한다. 나아가 정부와 기업에 재생에너지 기반 데이터센터 전환을 요구하고, AI 개발 및 서비스의 환경 영향을 투명하게 공개할 것을 촉구한다.
그러나 회의적인 시각도 존재한다. 개별 이용자가 AI를 사용하지 않는다고 해서 전체 온실가스 배출량 감축에 미치는 효과가 크지 않다는 지적이 있다. 또한 AI 사용을 거부할 수 있는 선택권이 디지털 접근성이 좋은 집단에 편중될 수 있다는 비판도 제기된다. 이에 따라 AI를 전면적으로 배척하기보다 ‘저탄소 AI’ 개발, 재생에너지 기반 인프라 전환, 효율적 데이터 사용 정책 등 병행 전략이 필요하다는 제안이 나온다.
글‧사진 / 김도현