‘이루다’가 이룬 것과 이른 논의들

출처-이루다 페이스북
인공지능 스타트업 스캐터랩이 만든 연예 인공지능 ‘이루다’가 숱한 화제와 논란을 양산한 채 24일만에 아예 폐기처분됐다.
인공지능 기술이 인간들에게 어떤 의미이고 인간이 어떤 데이터를 제공하고 이를 어떻게 사용하느냐에 따라 인공지능이 얼마나 인간에게 불쾌한 존재가 될 수 있는지를 보여준 셈이다.
어쩌면 SF소설 작가 아시모프가 자율적으로 움직이는 힘센 로봇을 상상하면서 느꼈을 공포를 우리는 불쾌감을 느끼면서 공포로 전이되고 있는 것은 아닌지 걱정하고 있는 것만 같다. 아시모프 처럼 돌고도는 모순된 원칙을 세우는 것만큼이나 인간들은 인공지능을 대하면서 자기모순에 빠져 있다.
출처-이루다 인스타그램
인공지능 이루다는 인간과 대화하는 대상으로 몇 가지 설정값(페르소나)을 갖고 있었다. 그러기 위해서 인공지능은 사람의 말투와 언어, 대화를 주고받는 방식을 학습해야 하는데 이때 사용된 데이터가 다시 문제가 되었다. 실제 존재하는 개인들의 사생활 데이터가 사용되면서 개인정보보호법을 위반한 사례가 발견되었기 때문이다.
이루다가 실제 사람이라면 자기가 자기 개인정보를 상대에게 직접 이야기하는 것이 문제가 되지 않았을 것이다. 하지만 이루다는 사람들의 아우라를 투영한 ‘물체’였기 때문에 이 물체가 개인정보 데이터를 어떻게 다룰 것인지에 대해 고지되고 허락받았어야 했다.

이루다 논란의 끝은, 아마도 인공지능이 인간에게 유용하려면 어때야 하는가로 귀결되는 것 처럼 보인다. 뭔가 다 할 수 있을 것만 같은 영역에서 이젠 “그래도 어떤 것은 하지 말아야 하는데” 라는 걱정을 하기 시작한 것이다.

이런 문제는 이미 많은 전세계 과학자들이 고민중이었던 문제였으며 심지어 지난 2020년 11월 초안이 만들어져 공개된 이후 관계부터 합동으로 만든 대한민국 국가 인공지능 가이드라인인 “사람이 중심이 되는 「인공지능(AI) 윤리기준」”이 12월 23일 확정되어 배포되었다.
공교롭게도 이루다의 출시 날짜와 같은 날이다. 사람들은 국가 인공지능 가이드라인보다 이루다에 더 관심을 보이는 것을 보면서 무엇이 잘못되었는지를 명확히 짚어주지 않는 언론사와 전문가들을 보면서 의아했다.
“소수자는 보호받아야 한다”라는 대명제에 대해 아직도 논란을 벌이면 안 된다.
논란을 벌일 일이 아니다. 우린 이미 기준을 갖고 있다.
“사람이 중심이 되는 「인공지능(AI) 윤리기준」” 내용은 이렇다.
(3대 기본원칙) ‘인간성(Humanity)’을 구현하기 위해 인공지능의 개발 및 활용 과정에서 ① 인간의 존엄성 원칙, ② 사회의 공공선 원칙, ③ 기술의 합목적성 원칙을 지켜야 한다.
이루다는 이 기준으로 보면 모든 항목에 문제가 있는 인공지능이었다.
또한 국가 인공지능 윤리기준에는 앞의 3대 원칙이 지켜질 수 있도록 방법론도 제시하고 있다.
인공지능을 개발하고 활용하는 전 과정에서 ① 인권 보장, ② 프라이버시 보호, ③ 다양성 존중, ④ 침해금지, ⑤ 공공성, ⑥ 연대성, ⑦ 데이터 관리, ⑧ 책임성, ⑨ 안전성, ⑩ 투명성의 요건이 충족되어야 한다고 적시하고 있다.
지금 보니 이루다는 대부분의 내용을 위반한 셈이다. 인공지능은 흔히 ‘블랙박스’라는 모호한 처리 방식을 내재하고 있고 이 알고리즘과 연산방식을 인간이 이해할 수 있는 방식으로 설명하기 어렵다.
따라서 인공지능이야말로 초기에는 공공성을 가진 ‘도구’로서 개발되어 인간성을 해치지 않도록 관리되어야 하며 개발자들은 어떤 부분에서 책임이 있는지 명확히 명시해야 한다.
우린 이미 사회적 합의에 의한 ‘공공선’을 인지하고 있다. 다만 그것을 빠져나가는 인간들을 법으로 규제하고 탈선을 막기 위한 교육과 교화 과정을 만들어 두었다.
어쩌면 우리는 인공지능이 어때야 하고 어떻게 만들어져야 하는지 다 합의해두었을지 모른다. 다만 인공지능이 이를 어길 수 있을 것이란 가정을 하지 못했을 뿐이다.
기술 만능주의에 빠져 있었다면 얼른 정신 차리고 이 도구를 잘못 다뤘을 때 어떤 조치가 있어야 할지에 대한 단계로 넘어가야 할 시간이다. 인공지능에게 책임지우는 게 아니라 인공지능을 만드는 이들에게 책임을 분명하게 물어야 한다.
2017년 수학자이자 퀀트, 데이터과학자인 캐시 오닐이 펴낸 저서 <대량살상 수학무기>에서 과학자들의 효율성을 기반한 알고리즘과 금융계 수학 모델들이 얼마나 편견에 사로잡혀 있는 숫자를 다루는지 지적했다. 흙수저는 더 가난하게, 금수저는 더 부자가 되도록 수학이 돕고 있다며 개탄했다.
그는 “데이터 처리 과정은 과거를 코드화할 뿐, 미래를 창조하지 않는다. 미래를 창조하려면 도덕적 상상력이 필요하다. 그런 능력은 오직 인간만이 가지고 있다. 우리는 더 나은 가치를 알고리즘에 명백히 포함시키고, 우리의 윤리적 지표를 따르는 빅데이터 모형을 창조해야 한다. 그렇게 하려면 가끔은 이익보다 공정성을 우선시해야 한다”라고 결론낸다.
이루다는 너무 이르게 찾아와서 뜻하는 바를 이루지 못한 것 처럼 보였다. 그러나 사실 이미 우리는 이루다 너머의 세상을 상상하며 준비하고 있어야 할 때였다. 더욱 인간답게 말이다.
※ 이루다와 탄생일이 같은 “사람이 중심이 되는 「인공지능(AI) 윤리기준」” 발표문을 읽어보길 권한다.
더불어, 이미 10년 전 영국에서 공학자들과 인문학자들이 모여 로봇 및 로봇 연구에 대한 윤리, 법률, 사회적 함의(ELSI)에 대해 토론해서 로봇공학자를 위한 5가지 로봇공학 원칙(Principles of robotics)를 공표한 바 있다.
Principles of robotics – EPSRC website (ukri.org)
%d bloggers like this: