2024-12-02
THINKFORBL COLUMN SERIES
인공지능(AI)과 동업하는 데 필요한 것은?
정보통신신문
인공지능(AI)은 이제 체스나 바둑을 인간보다 더 잘 두고, 번역과 예술 활동을 직접 해내며, 각종 주제에 대해 인간과 심도 있는 대화까지 나눌 수 있다. 머지않아 스스로 질문하고 학습하며 자기 행동을 성찰하는 AI도 나올 전망이다. 그러자 사람들은 혼란스러워한다. “인간은 무엇인가?”라 물으면 많은 담론이 이성이나 지적 능력을 인간의 본질로 꼽는다. 인간은 생각하는 갈대이다. 인간은 생각하기 때문에 고로 존재한다. 현생 인류의 학명은 ‘호모 사피엔스(생각하는 사람)’이다. 그런데 AI가 인간과 동등한 지적 능력을 지닌다면, 적어도 똑같이 흉내 낼 수 있다면? ‘인간’ 내지 ‘인간다움’의 고유성은 어떻게 되는가?
이에 대해 기술자로서 할 수 있는 말은 이렇다. 인간의 기술은 늘 모든 종류의 경계를 허무는 방식으로 발전돼 왔다. AI가 인간의 지적 기능을 재현하기 시작한 이상, 우리가 인간만이 할 수 있는 고유한 영역을 특정하여 경계 짓더라도, 결국 기술은 AI가 같은 작업을 해내거나, 적어도 똑같이 재현할 수 있도록 만들어내고야 말 것이다. 기술 문명은 늘 그렇게 진화해 왔다. 그렇게 기술을 이용해서 모든 경계에 도전하는 것이야말로 어쩌면 인간, 내지 인간다움의 핵심일지도 모른다.
이에 내 생각은 비록 앞으로 어떤 뜻밖의 기술적 난점이 발견될지는 알 수 없지만, 인간이 할 수 있는 모든 지적 행위는 AI에 의해 대체, 내지 재현될 수 있다고 생각해야 한다. 그 전제 위에서 AI 관련 각종 문제에 접근해야 한다. 경계는 없다. ‘AI가 …을 할 수 있는가(해도 되는가)?’를 결정짓는 것은 비용 효율성과 사회적 약속의 문제일 뿐이다. 우리는 이제 사람과 동등한 지적 능력을 지닌 동반자, 내지 동업자가 나타났음을 인정해야 한다.
AI 신뢰성은 우리 스스로 만들어낸 이 동업자에게 필요한 ‘신용’을 부여하는 영역이라 할 수 있다. 물론 우리는 이 동업자와 함께 일하지 않기를 선택할 수도 있다. 하지만 이 경우 시장에서 AI 동업자와 함께하는 경쟁자들을 이길 수 없을 것이다. 그렇다면 이 동업자가 나에 대한 신의와 각종 사회적 약속을 끝까지 지킬 수 있도록 만들고 관리하는 일이 무엇보다 중요해진다. AI가 인간의 모든 지적 작업을 재현할 수 있다는 것은, 가장 악질적이고 반사회적인 인간의 행위 또한 똑같이 재현할 수 있다는 의미이기 때문이다.
사람들끼리 동업할 때 각종 계약과 상대의 신상을 검증하는 것처럼, AI와의 동업에도 그런 작업이 필요하다. 그 일을 하는 것이 AI 신뢰성 전문가다. 그들은 AI 시스템이 윤리적‧법적, 사회적 기준을 충족하도록 설계하고 검증한다. 단순히 기술적 성능 개선이 아니라, 데이터 편향 제거, 의사결정 과정의 투명성 확보, 위험 관리 체계 구축, 지속적 감독과 평가, 그리고 인간에 의한 통제까지를 종합적으로 진행한다. 그러고 나면 해당 AI가 특정 영역에서 믿을 만한 동업자인지를 기술적 관점에서 객관적으로 평가할 수 있다. 물론 검증하지 않은 AI를 사용하는 것도 사용자의 자유이다. 그 결과만 책임질 수 있다면, 사업가가 길거리 사기꾼일 수 있는 신원미상자와 동업하는 것이 자유인 것처럼 말이다.
기술 격변기를 맞아, 수많은 AI가 현란한 기능을 뽐내며 신사업의 동업자가 되어주겠다고 나설 것이다. 그들은 무엇이든 할 수 있다. 바꿔 말하면 인간 이상으로 정교하게 사기를 치고, 각종 불법행위, 사회적 물의를 일으킬 수 있다. 그래서 현시점에서 산업에 가장 필요한 것은 이러한 AI의 신용을 검증하고 책임 있게 평가해줄 전문가 집단이다. 다행히도 AI의 신용 검증은 사람을 대상으로 하는 것보다는 더 객관적이고 기술적으로 할 수 있다. 지금 전 세계가 앞다투며 AI 신뢰성 전문가 양성을 준비하는 이유가 여기에 있다.
결국 핵심은 두 가지다. 첫째, ‘인간성’이란 경계에 사로잡혀 AI의 지적 능력을 얕잡아보지 말 것. 둘째, 우리와 동등한 지성의 AI와 함께 ‘안전하게’ 일하기 위해서, 모든 AI에 필요한 만큼의 신뢰성 검증 작업을 진행할 것. 이 두 가지가 제때 실행되는지에 따라, AI와 함께 하는 우리 산업의 미래가 눈부신 진보와 쾌적함을 가져올지, 아니면 끝없는 불안감과 사회적 혼란을 가져올지를 결정할 것이다.
[출처]
이에 대해 기술자로서 할 수 있는 말은 이렇다. 인간의 기술은 늘 모든 종류의 경계를 허무는 방식으로 발전돼 왔다. AI가 인간의 지적 기능을 재현하기 시작한 이상, 우리가 인간만이 할 수 있는 고유한 영역을 특정하여 경계 짓더라도, 결국 기술은 AI가 같은 작업을 해내거나, 적어도 똑같이 재현할 수 있도록 만들어내고야 말 것이다. 기술 문명은 늘 그렇게 진화해 왔다. 그렇게 기술을 이용해서 모든 경계에 도전하는 것이야말로 어쩌면 인간, 내지 인간다움의 핵심일지도 모른다.
이에 내 생각은 비록 앞으로 어떤 뜻밖의 기술적 난점이 발견될지는 알 수 없지만, 인간이 할 수 있는 모든 지적 행위는 AI에 의해 대체, 내지 재현될 수 있다고 생각해야 한다. 그 전제 위에서 AI 관련 각종 문제에 접근해야 한다. 경계는 없다. ‘AI가 …을 할 수 있는가(해도 되는가)?’를 결정짓는 것은 비용 효율성과 사회적 약속의 문제일 뿐이다. 우리는 이제 사람과 동등한 지적 능력을 지닌 동반자, 내지 동업자가 나타났음을 인정해야 한다.
AI 신뢰성은 우리 스스로 만들어낸 이 동업자에게 필요한 ‘신용’을 부여하는 영역이라 할 수 있다. 물론 우리는 이 동업자와 함께 일하지 않기를 선택할 수도 있다. 하지만 이 경우 시장에서 AI 동업자와 함께하는 경쟁자들을 이길 수 없을 것이다. 그렇다면 이 동업자가 나에 대한 신의와 각종 사회적 약속을 끝까지 지킬 수 있도록 만들고 관리하는 일이 무엇보다 중요해진다. AI가 인간의 모든 지적 작업을 재현할 수 있다는 것은, 가장 악질적이고 반사회적인 인간의 행위 또한 똑같이 재현할 수 있다는 의미이기 때문이다.
사람들끼리 동업할 때 각종 계약과 상대의 신상을 검증하는 것처럼, AI와의 동업에도 그런 작업이 필요하다. 그 일을 하는 것이 AI 신뢰성 전문가다. 그들은 AI 시스템이 윤리적‧법적, 사회적 기준을 충족하도록 설계하고 검증한다. 단순히 기술적 성능 개선이 아니라, 데이터 편향 제거, 의사결정 과정의 투명성 확보, 위험 관리 체계 구축, 지속적 감독과 평가, 그리고 인간에 의한 통제까지를 종합적으로 진행한다. 그러고 나면 해당 AI가 특정 영역에서 믿을 만한 동업자인지를 기술적 관점에서 객관적으로 평가할 수 있다. 물론 검증하지 않은 AI를 사용하는 것도 사용자의 자유이다. 그 결과만 책임질 수 있다면, 사업가가 길거리 사기꾼일 수 있는 신원미상자와 동업하는 것이 자유인 것처럼 말이다.
기술 격변기를 맞아, 수많은 AI가 현란한 기능을 뽐내며 신사업의 동업자가 되어주겠다고 나설 것이다. 그들은 무엇이든 할 수 있다. 바꿔 말하면 인간 이상으로 정교하게 사기를 치고, 각종 불법행위, 사회적 물의를 일으킬 수 있다. 그래서 현시점에서 산업에 가장 필요한 것은 이러한 AI의 신용을 검증하고 책임 있게 평가해줄 전문가 집단이다. 다행히도 AI의 신용 검증은 사람을 대상으로 하는 것보다는 더 객관적이고 기술적으로 할 수 있다. 지금 전 세계가 앞다투며 AI 신뢰성 전문가 양성을 준비하는 이유가 여기에 있다.
결국 핵심은 두 가지다. 첫째, ‘인간성’이란 경계에 사로잡혀 AI의 지적 능력을 얕잡아보지 말 것. 둘째, 우리와 동등한 지성의 AI와 함께 ‘안전하게’ 일하기 위해서, 모든 AI에 필요한 만큼의 신뢰성 검증 작업을 진행할 것. 이 두 가지가 제때 실행되는지에 따라, AI와 함께 하는 우리 산업의 미래가 눈부신 진보와 쾌적함을 가져올지, 아니면 끝없는 불안감과 사회적 혼란을 가져올지를 결정할 것이다.
[출처]
- 관련 기사 :
https://www.koit.co.kr/news/articleView.html?idxno=126971
- 사진 :
씽크포비엘
2024-12-02
THINKFORBL COLUMN SERIES
인공지능(AI)과 동업하는 데 필요한 것은?
정보통신신문