"좋은 사회가 좋은 AI를 만든다"
AI 국제연대, 아시아와 우리나라의 연대 수준은?
AI 시대, "지적노동 대체로 여가 늘 것 VS 일자리 감소, 사회 양극화 될 것"
"기술의 문제 아닌, 기술을 '어떻게 사용하느냐'의 문제가 중요"
"지적재산권(저작권) 문제 등 법적 문제점 어떻게 풀어야 하나"
"기술 경쟁 촉진 위한 규제 완화" VS "기술 적절한 이용 위한 규제 정비"
조세일보는 총선의 해를 맞아 우리 사회의 다양한 갈등과 위기, 사회 문제들을 진단하고, 변화하는 시대에 맞게 무엇을 준비해야 하는지 등을 전문가 인터뷰와 기고 등을 통해 모색하는 [시대정신] 기획을 연재한다.
이번에는 이미 한 차례 내 보낸 AI 관련 전문가 인터뷰에 이어진 후속 편이다.
AI 산업이 잠재적 위협일지, 장미빛 미래를 여는 게임 체인저가 될 것인지, 관련 분야의 인재 양성 준비 정도, 지적재산권(저작권) 등 법적 문제점은 어떻게 풀어야 하는지 등 AI 분야에서 제기되는 다양한 쟁점들을 질의응답 형식으로 풀어냈다.
인터뷰는 지난 13일 법무법인 원에서 진행했으며, 정석윤 변호사(법무법인 원)와 씽크포비엘 박지환 대표가 참석했다. 인터뷰를 2회(②-1, ②-2)에 걸쳐 연재한다. [편집자주]
▲ 씽크포비엘 박지환 대표(왼쪽), 법무법인 원의 정석윤 변호사가 AI 관련 인터뷰를 진행하고 있다.
Q. AI 국제연대(TRAIN) 연합체가 글로벌 사회에서 어떤 임팩트를 가져다 줄 것으로 기대하나.
A. 박지환 대표 : 국제 정세를 보면 인공지능이 당장 우리에게 어떤 막심한 피해를 주지는 않지만, 앞으로 그런 일이 벌어질 수 있기 때문에 대비를 잘해야 된다는 말을 공통으로 한다.
미국의 경우 지금 중국이 걱정되다보니 행정명령이 규제처럼 나왔지만 그 내용을 들여다보면 '10의 26승 개 이상 정수 또는 부동 소수점 연산을 사용하는 모델'에만 적용한다고 했다.
그건 GPT-4 하나로, GPT-4만 해당된다는 거다. GPT-4를 제외하고는 사전에 시험 결과를 보고해야 되는 의무가 적용이 안 되는 거다. 규제처럼 발표했지만 사실은 규제가 아니었던 거다.
미국이 중국을 상대로 이니셔티브(주도권)를 가져가기 위해서는 규제하지 않겠다는 속내를 드러낸 것 같다.
중국은 사실 인권보다는 10억 명 인구의 얼굴을 공개해 안면 인식기술은 세계 1위가 돼버렸다. 기술 패권을 통해서 지향하는 목표가 있을 것 같다.
거기에 유럽이 뒷북치고 놓친 상황인데, 지금 본인들이 따라갈 엄두가 안 나니까 '민주적 가치'와 '환경', 인류의 보편적 권리라고 하는 '인권', 이 세 가지 키워드로 법안을 만들어서 '유럽 사람들한테 적용하기 위해서 이 법을 지켜야 돼'라며 사실상 제동 걸겠다는 형태가 된 것이다.
유럽은 규제안이 강하고, 미국은 중국을 견제해야 되지만 인권도 지켜야 되고 애매한 위치에 있다 보니까 규제를 하는 것처럼 얘기했음에도 사실 내용적으로 봤을 때는 촉진과 같은 형태여서 약간의 코스프레를 한 식이다.
Q. 아시아 국가는 어떠한가.
A. 박지환 대표 : 이제 아시아 국가의 위치가 애매하다. AI 서비스에서 포용성이 중요하니 다른 국가들을 배제하지 말라는 얘기들이 나왔지만 사실 쉽지 않을 것 같다.
현 시점에서 우리 나름대로 할 수 있는 것들이 많은데 시작하는 단계이기 때문에, 우리 혼자 열심히 노력해서 하는 속도보다는 우리와 생각이 비슷하면서 가까운 곳들과 빠르게 이 속도를 따라가면서 우리가 정립해야 될 것들을 정립하는 것도 중요하겠다.
미국이든 중국이든 유럽이든 지금은 모두 제도를 정립한 것이다. 그럼 우리도 우리에 맞게 어떻게 제도를 잘 정비해 나갈지가 결국 미래 시대에서 산업을 결정할 것 같다.
무엇을 잘하는 것인지 조차도 판단하기 어려운 시점에 빨리 이러한 것들을 공유하는 게 중요하다. 중국, 일본, 태국, 베트남, 인도네시아, 싱가포르, 말레이시아 등 국가들의 기술은 어디까지 올라왔고, 전문가를 양성하기 위한 교육 제도는 어떻게 준비하고 있으며, 이런 것들을 처리하기 위해서 여러 가지 법들은 지금 어떻게 정비를 하고 있는지, 그래서 적어도 이 트레인 심포지엄에서는 최대한 우리가 오픈할 수 있는 데까지 오픈해 보자라고 하는 취지인 것이다.
그렇게 우리가 시행착오를 조금 더 줄일 수 있다면 나름대로 엇나가게 되지는 않을 것이다. 미국을 따라잡겠다는 것이 아니고, 어떤 면에서 저희가 더 중요하게 바라보는 거는 기술 성능이 아니다.
사회가 수용할 수 있는 그 기준은 무엇이 되어야 하냐, 그 기준이 수립됐다 하더라도 그것을 기술적으로 어떻게 담보할 것이냐, 이러한 내용들을 산업과 제도와 정책에서 어떻게 지원해야 될 것인가, 이런 것들을 터놓고 논의해 보자는 것이다.
Q. AI 관련 교육 인재 양성 부분에 대해 구체화된 보완책 등이 있는지.
A. 박지환 대표 : 대다수의 교육이 전부 다 사용자의 윤리적 각성을 요구한다. 저는 이럴 때마다 '초등학생들한테 윤리를 가르치면 자율주행 차는 저절로 사람을 피해서 가나'라고 질문하는데, 인간의 선함과 기술의 물질 윤리는 차이가 있다고 본다.
기술로 통제할 부분이 있는 것이다. 물론 유럽 표준에 따르면 'AI의 윤리는 그걸 개발한 사람의 윤리만큼 가질 수 있다', 즉 '개발자의 윤리 의식만큼 AI도 윤리적이다'라는 얘기를 한 것 같다.
하지만 눈길에 자동차가 미끄러지는 것은 내가 아무리 잘하려고 노력해도 기술로 통제하는 건데 이러한 것들이 너무 배제돼 있다고 본다.
인공지능 신뢰성 관련된 기술 교육은 전 세계적으로 유일하게 2개 있다. 미국의 '서티파이드 프로젝트 매니지먼트 AI(CPMA)'라는 교육과정 플러스 자격증이 있고, 핀란드에 하나 있다.
유럽은 교육 과정이라기보다 lTAI라는 가이드라인이 있다. 반면 우리나라 대학에서 인공지능 신뢰성을 가르치는 곳은 아직까지 없는 것 같다.
인공지능이 잘못됐을 때 '이런 위험한 일이 벌어져'라는 윤리적 각성 말고, '어떻게 기술로 통제할 것인가', '데이터의 편향 분석은 어떻게 하나', '인공지능에 대한 모델 교란 공격 어떻게 방어할 것인가', '소프트웨어 개발할 때 안전모드 설계는' 이런 것들에 대해서 기술적으로 가르치는 것은 아직까지 공개된 곳에 없다. 그런 전문 교육이 없기 때문에 이걸 빨리 해야 될 것 같다.
저는 어떻게 보면 이게 우리나라의 경쟁력이 될 것이라고 본다.
독일 제품은 내구성 좋다는 인식이 있듯이 한국에서 만든 인공지능이 가장 윤리적이라는 하나의 브랜드를 갖는 것이다. 가장 윤리적인 가치관을 가진 AI 혹은 가장 책무성이 있는 인공지능 개발 체계를 갖고 있는 나라, 혹은 그런 것들을 전담할 수 있는 몇 천 명의 전문 인력이 있는 나라, 이렇게 되면 이것이 하나의 브랜드가 될 것 같다.
정말 윤리는 편향이 아니라 다양성이라고 본다. 만약 음식을 손으로 먹는 건 미개하다고 할 때 이건 누구의 관점이냐가 중요하다. 항상 정답을 하나로 획일화하는 게 아니라 다양성을 만들어주는 게 오히려 더 윤리적이라고 생각한다.
너무 정제된 사회가 윤리적이라고 생각하지 않는다. 그런 것들을 우리가 비판할 수 있고 수용할 수 있고 논의할 수 있는 게 더 맞는다고 생각한다.
윤리 문제를 하나의 브랜딩으로 선점하기 위해서 첫 번째 과제는 전문 인력 양성이라고 본다. 의사가 없는데 그 나라의 의료 기술이 발달할 수가 없지 않나. 안 늦었으니 잘 준비하는 것도 필요하다.
A. 정석윤 변호사 : 저도 같은 생각인데, AI가 미국이나 유럽 중심으로 개발되고 이끌어가는 측면이 있다 보니 수용성의 측면에서 같은 문화권에서 비슷한 문제들을 겪을 가능성이 높다.
이번 TRAIN 협의체에 참여하는 나라들은 공통의 과제, 방향 이런 것들을 같이 공감할 수 있는 나라들이다. '트레인'이라는 이름의 의미처럼 그 나라들이 앞서서 논의를 시작하면 유럽이나 미국 내에서도 여러분들이 참여해서 논의들이 더 풍부해지지 않을까 하는 기대가 있다.
Q. AI 시대의 도래로 지적노동이 자동화되면서 다시 근무 시간이 줄고 여가 시간이 늘어날 것이라는 장미빛 전망과, 일자리가 대폭 감소되면서 사회 양극화가 나타날 것이라는 우려도 나온다. 이 문제를 어떻게 풀어야 할까?
A. 정석윤 변호사 : 생성형 GPT-4가 나왔지만 그것이 직접적으로 일자리를 위협할 만한 수준에 이른 것은 아니라고 생각한다. 다만 앞으로 더 고도화되면 그럴 가능성은 분명하다.
그런데 이 문제는 전망의 문제가 아니라 사실은 우리가 앞으로 어떻게 대비할 것인지 고민하고 준비해야 하는 문제라고 본다.
개인적으로는 AI 기술도 결국 인간을 위해 존재하는 것이어야 되기 때문에 결국 그것을 어떻게 제도화해서 우리 사회가 수용할 것인가의 문제가 중요하다고 본다.
우리가 어떻게 준비하고 대응하느냐에 따라 실제로 일자리가 줄어들어서 사회 양극화로 가는 부정적인 방향으로 갈 수도 있고, 아니면 사회적 공감대를 잘 이루어서 기술의 효용을 극대화하면서도 우리의 사회적 행복도를 높이고 오히려 사회 양극화와 같은 사회적 문제들을 줄일 수 있는 긍정적인 방향으로 갈 수도 있다고 생각한다.
결국 AI 기술의 문제가 아니라, AI 기술을 어떻게 쓰느냐의 문제인 것이다.
A. 박지환 대표 : 인공지능 시대에선 이제 데이터를 해석하는 능력이 중요하다고 본다. 다시 말해 이걸 제대로 활용하는 사람과 활용하지 못하는 사람은 글자를 아는 사람과 모르는 사람의 수준으로 벌어질 거다.
여태까지 우리가 기존의 인공지능 없이 일하는 게 10의 양만큼 생산했다고 한다면 이제 인공지능을 이용하면 100만큼 생산할 수 있는 기회로도 볼 수 있다. 우리는 더 많은 생산이나 지적 결과를 만들어낼 수도 있을 것이다.
하버드 경제학 포럼에서 "향후 10년간 인공지능이 절대 인간을 대체하는 일은 없지만, 인공지능을 활용하는 사람이 인공지능을 활용하지 않는 사람은 대체할 것"이라는 말이 나왔다.
이제부터 사회가 해야 될 일이 생기는 것이다. 아직 노동 산업 안에 계신 분들을 우리가 어떻게 재투자, 재교육을 해서 AI 산업 속으로 들어오게 할 것인지는 국가가 고민해야 될 일이다.
'공정 전환'이라는 말이 있다. 공정은 '저스티스'로, 즉 산업이 전환하는데 정의롭게 전환해야 되지 않냐 그러기 위해 기존의 노동을 하시던 분들이 이 전환되는 산업에서도 자신이 무언가를 할 수 있는 일을 할 수 있도록 제도적으로, 국가적으로 같이 이루어 나가야 되지 않겠냐는 고민을 하는 용어다.
저는 '공정 전환'을 해야 하는 게 맞고, 안 하면 도태되는 것이고, 개인도 참여하지만 국가도 견인을 해야 될 일이라고 본다.
Q. 챗-GPT의 경우 지적재산권(저작권) 문제가 이미 법적 문제로 제기된 상태다. 저작권 문제를 포함해 풀어야 할 여러 문제점으로 어떤 것들이 있고, 어떻게 풀어 나가야 한다고 보나.
A. 박지환 대표 : 이번에 '인공지능을 학습하려면 반드시 저작권자와 선 협의를 해라'라는 가이드라인이 하나 나왔다. 협의를 안 하겠다는 게 아닌데 실질적으로 어떻게 협의해야 되냐는 질문에 부딪친다.
미국 같은 경우 AI가 데이터를 공부하는 과정은 침해가 아니라 그걸 활용하는 과정에서의 저작권 침해 형태의 법이 된 것 같다. 반면 우리나라는 저작권법에 전송·복제라는 단어가 있어 내가 쓰든 안 쓰든 다시 말해 데이터 사용과 관계없이 데이터 상으로 가지고 오는 순간 네트워크로 전송이 됐고 내 메모리에 복제됐기 때문에 침해가 된 것이다.
그 다음 '학습 금지 태그'를 걸어두자는 얘기가 나왔다. 태그가 걸리면 저작권을 협의하든가 가져가지 말라는 건데, 지금은 임시방편이니 그렇다 쳐도 위험한 일이 벌어질 수도 있다고 본다.
질적인 데이터는 다 학습 금지돼 있고, 사실상 잘못된 데이터들이 노출이 된다고 가정할 경우, 만약 누군가 우리나라 사람들의 사상 교육을 위해 저작권이 없는 대량의 콘텐츠를 게시해, AI가 '독도는 분쟁 지역'이라고 대답하게 할 수도 있다. 잘못된 데이터들이 들어가서 오히려 더 나쁜 AI를 만드는 데 활용될 수 있는 '데이터 추출 공격'이 일어나 사회적 결과에도 영향을 미칠 수도 있겠다는 생각이 든다.
유럽이 인공지능 규제책을 담은 '인공지능법안'(AI Act)을 만들면서 500번 공청회 했다고 들었다. 우리도 이 부분에 대해 다양한 의견들이 빨리 정제되면서 잘 짚어나갔으면 좋겠다.
A. 정석윤 변호사 : 우리 저작권법은 AI 기술을 모른다. 무슨 말이냐면 AI 기술을 염두에 두고 저작권 침해나 저작권법 위반을 정해놓은 게 아니다. 어떤 저작물이 AI 기술 개발을 위한 학습 데이터로 사용될 거라는 것은 우리가 지금껏 경험하지 않았던 것이고 저작권법이 예상하고 있는 바가 아니다.
그러니까 법의 공백 상태이고 그래서 현재의 법률을 해석하는 데 입장에 따른 충돌이 발생한다.
어느 입장에서든 현재로서는 현행 법률의 해석을 통해 각자의 입장을 관철하려는 노력을 하는 것이다.
예컨데 학습테이터 사용을 보면 전송·복제권은 사실은 학습 데이터 사용을 염두에 두고 만든 규정들이 아님에도 불구하고 저작권을 보호해야 한다는 입장에서는 전송·복제권을 근거로 저작권법 위반을 주장하는 것이고, 반면에 AI 기술 발전을 좀 더 강조하는 입장에서는 현행 법률에 있는 '공정이용' 조항을 통해 저작권법 위반의 문제를 해소하려고 한다.
저작권과 관련된 소송도 너무 다양해서 일률적으로 얘기하기 어렵지만 아주 단순화해서 두 가지로 나눈다면, 첫 번째는 저작물을 학습 데이터로 쓰는 것이 저작권 침해인지 여부이고, 두 번째는 AI를 통해서 만든 창작물이 누군가의 저작물과 유사성을 가져서 그 사람의 저작권을 침해할 것이냐의 문제이다.
이러한 문제들에 대해서 현재의 법률이 가진 입법 공백 상태를 빨리 해소해야 한다. 다만 급하더라도 다양한 이해관계인들의 의견을 듣는 절차들이 반드시 선행되어야 사회적 합의를 이룰 수 있을 것이고, 그러한 사회적 합의에 맞게 입법이 되어야 그 법률이 수용력을 가질 수 있다고 본다.
법률은 결국 그 사회 구성원들의 사회적 합의, 공감대를 반영한 것이기 때문이다.
그런데 아직 그러한 사회적 합의나 공감대가 형성되어 있지 않은 것 같다. 공청회를 통해서든 이해관계인들의 의견들을 고려해서 그런 논의를 활발하게 해야 하는 상황이라고 생각한다.
개인적으로는 최소한 학습데이터의 경우에는 기술적 장치를 두어야겠지만 좀 더 산업적으로 자유롭게 사용할 수 있게 하는 것이 필요하다는 생각이다.
다만 어떤 방향이든 그에 대한 논의를 서둘러야 할 시점이라고 생각한다.
Q. 마지막으로 'AI 발전 촉진을 위한 규제 정비', 'AI 기술의 적절한 이용을 위한 규제', 두 마리 토끼를 잡아야 된다는 측면에서 더 덧붙여주신다면.
A. 정석윤 변호사 : 결국 AI 시대가 온 것이고, 그것을 우리가 피할 수 있는 상황은 아니다. 우리나라로서 산업적으로도 AI 기술을 통해서 국가적인 경쟁력을 갖춰야 되는 목표도 있고, 반면에 그로 인해서 발생할 수 있는 여러 부작용들이 있기 때문에 그 부작용들을 최소화해야 한다는 목표도 있다. 그 두 가지 목표를 달성하기 위해 노력해야 하는데, 이러한 노력이 박 대표님 말씀처럼 우리나라의 독자적인 브랜드가 될 수 있겠다고 기대한다.
한 가지 덧붙이자면, 법무법인 원 인공지능대응팀은 '좋은 사회가 좋은 AI를 만든다'는 모토를 갖고 있다. 우리 사회가 인권과 같은 보편적 가치를 강조하고 그에 대한 사회적 합의를 이루며, 그러한 사회적 합의가 반영된 AI를 만들 수 있다면 좋겠다는 생각을 한다.
A. 박지환 대표 : AI와 AI를 안전하게 다루는 것도 균형 있는 기술이 돼야 되니 그 기술을 여태까지 우리가 보지 못했다라고 한다면은 예컨대 약에 대한 성분을 분석하고, 임상 실험하는 방법· 절차, 임상실험에 참여하는 전문가들의 능력 등 모든 것들이 빠르게 정비하는 게 우리가 두 마리 토끼를 잡으면서 또 한국의 차별화된 브랜드가 되는 것이라고 본다.
[출처]
- 관련 기사 :
https://www.joseilbo.com/news/htmls/2024/02/20240222510395.html
- 사진 :
법무법인 원