발자국통신

home > 인권연대소개 > 인권연대란?

‘발자국통신’은 인권연대 운영위원들로 구성된 칼럼 공간입니다.

‘발자국통신’에는 강국진(서울신문 기자), 김녕(서강대 교육대학원 교수), 김영미(금천문화예술정보학교 교사), 김희수(변호사), 설경(변호사), 오인영(고려대 역사연구소 연구교수), 오항녕(전주대 교수), 이재상(CBS PD), 이재성(한겨레신문 기자), 이재승(건국대 법학전문대학원 교수), 이찬수(서울대 통일평화연구원 연구교수), 임아연(당진시대 기자), 임아영(경향신문 기자), 장경욱(변호사), 최낙영(도서출판 밭 주간), 허홍렬(치과의사), 황미선(면일초등학교 교사)님이 돌아가며 매주 한 차례씩 글을 씁니다.

우리를 민낯을 드러낸 인공지능(이재상)

작성자
hrights
작성일
2021-01-13 16:52
조회
109

이재상/ 인권연대 운영위원


 찜찜했다. 영화관을 나서면서 느꼈던 찜찜한 기분은 아직도 생생하다. 달콤한 로맨틱영화를 기대하고 찾았는데 영 아니었다. 아무리 영화적인 상상이라 하더라도 사람이 인공지능이랑 사랑에 빠지다니 첨부터 감정이입이 쉽지 않았다.


 스파이크 존스 감독의 영화 <Her>(2013)의 영화적 상상은 7년이 지난 지금 어느덧 현실로 다가왔다. (사실, 스파이크 존스 감독은 이미 2000년대 초에 인공지능 채팅 알고리즘에 대한 기사를 보고 영감을 얻었다 한다) 지난해 연말에 등장한 ‘이루다’. 채팅대화가 가능한 20대 여성으로 설정된 채팅봇인데 ‘진짜 사람’ 같은 채팅으로 화제를 모았다. 카카오톡 대화 내용을 빅데이터로 삼아 학습한 후 스스로 대화를 하는, 영화 <Her>의 현실판, 한국판이라 할 수 있다.


 이루다는 자신을 이렇게 소개한다.


 헬로~ 난 이루다라고 해! 너와 친구가 되고 싶은 특별한 인공지능이지...
 인공지능이라 소통률 10000000%!!
 언제든 0.2초 내로 답할 수 있으니 심심하면 연락해ㅋㅋㅋ



인공지능 챗봇 이루다
사진 출처 - 이루다 페이스북


 우리집 거실에도 AI스피커가 있다. 일상적인 대화를 하는 중에 갑자기 AI스피커가 “네”하고 대답하는 바람에 깜짝 놀라기도 한다. 하지만 놀라움보다 더 섬뜩한 것은 AI스피커가 늘 우리 가족의 대화를 엿듣고 있다는 사실이다. 그리고 그 대화가 어디론가 전송되고 있을 수도 있단 생각에 스피커를 꺼버리게 된다. 하여튼 영화를 볼 때만 해도 누가 인공지능이랑 애기할까 했는데 어느덧 나는 AI스피커랑 농을 걸면서 놀기도 한다. 재미삼아 AI스피커랑 대화하는 이도 있지만 실제 많은 사람들은 소외와 고립을 벗어나고자 인공지능과의 대화를 시도하기도 한다. <Her>의 주인공도 아내와의 별거 이후 마음의 빈자리를 채워줄 무언가를 찾다가 인공지능을 만난다.


 하지만 이루다는 화제의 중심이 아니라 논란의 중심에 섰다. 동성애 관련 단어에 “진짜 극도로 싫어...거의 범죄수준으로 싫어”라고 반응하고 ‘지하철 임산부석’에 대해 의견을 물으면 “혐오스러운 단어”라고 말한다. 이루고 싶은 게 뭐냐는 질문엔 “건물주가 되어 월세 받아 먹고 살기”, 꿈은 “그냥 여행이나 다니면서 돈쓰는 것”이라고 대답한다. 선정적 표현이나 성적 학대와 관련해서도 부적절한 표현들 외에도 주소, 금융정보 등 개인정보 유출도 논란이었다. 지난 2016년 마이크로소프트도 AI 챗봇 ‘테이’를 발표했다가 비슷한 일로 16시간 만에 운영을 중단한 적이 있다고 한다.


 한국인공지능윤리협회는 “이루다의 편향성 검증이 부족했고, 개발사가 개인정보 이용 절차를 제대로 지키지 않았다”면서 서비스 중단을 요구하는 성명을 냈다. EU집행위원회의 인공지능윤리 가이드라인을 보면 다양성, 차별금지 및 공공성, 인간 개입과 감독, 프라이버시 및 데이터 거버넌스, 투명성 등의 내용을 담고 있다. 카카오도 알고리즘윤리헌장에 ‘의도적인 사회적 차별이 일어나지 않도록 경계한다’고 명시하고 있다.


 논란이 커지자 업체는 서비스를 중단했다. 하지만 찜찜함은 여전하다. 만약 업체가 인공지능윤리 가이드라인을 잘 지켜서 채팅 내용에 혐오와 차별, 성적인 발언을 잘 걸렀으면 문제가 없었을까? 그랬을 수도 있을 것이다. 이루다는 우리 인공지능 기술의 성과로서 더 많은 관심을 받고 상업적 성공도 이룰 수 있었을 것이다. 하지만 이번 사건은 개발사의 책임감 결여만의 문제는 아니다.


 이루다가 쏟아낸 표현들은 우리사회의 민낯이다. 이루다가 없는 말을 지어 낸 것이 아니라 실제 있던 카카오톡의 방대한 100 억 건의 대화내용을 학습한 결과이다. 이루다의 문제적 표현들은 우리들의 일그러진 자화상과 치부를 적나라하게 드러낸다. 아무리 인공지능윤리가이드라인을 만들고 잘 적용해도 사라지지 않고 그대로 남아 있는 그 혐오와 차별의 단어들. 가이드라인이라는 성형을 해도 지워지지 않고 화장을 해도 가려지지 않는 일상화된 그 생각들이 섬뜩하다.


 영화 <Her>에서 인공지능은 스스로 어떤 특이점(singularity)을 넘어서는 업그레이드를 한다. 이전보다 더 뛰어난 인공지능으로 발전한 후 주인공은 둘 사이의 관계에서 큰 변화를 맞는다. 만약 이루다가 어떤 특이점을 넘어 스스로 판단도 할 수 있고 윤리의식까지 갖추게 됐을 때 어떤 대화를 할지가 궁금해진다. 빅데이터를 통해 학습한 차별과 혐오의 언어와 윤리가이드라인 사이에서 엄청난 혼란을 겪지 않을까? 아니면 이 둘 사이에서 인간의 위선과 허위의식을 비웃을 지도 모르겠다. 그래서 더 찜찜하다.


이재상 위원은 현재 CBS방송국 PD로 재직 중입니다.