AI 챗봇 ‘이루다’ 논란이 남긴 과제 3가지
AI 챗봇 ‘이루다’ 논란이 남긴 과제 3가지
  • 김윤진 기자
  • 승인 2021.01.12 16:41
  • 댓글 0
이 기사를 공유합니다

이루다와의 대화를 시연하는 모습. / 사진=스캐터랩 블로그
이루다와의 대화를 시연하는 모습. / 사진=스캐터랩 블로그

[뉴스로드] AI 챗봇 ‘이루다’가 업계에 고민거리를 남기고 퇴장했다. ‘개인정보를 AI 딥러닝에 활용해도 되나’ ‘AI가 성희롱 대상이 될 수 있는가’ ‘개발자는 AI 윤리관 확립에 어느 선까지 개입해야 하나’ 등이다.

이루다는 페이스북 메신저 기반 대화형 AI다. 스타트업 스캐터랩이 지난달 22일 출시, 이달 12일 서비스 종료했다. 페이스북 회원은 사람 대하듯 이루다와 사적인 메시지를 주고 받을 수 있었다.

이루다에 대한 스캐터랩의 설명. / 사진=이루다 웹사이트

이루다는 회원이 말을 가르치고 챗봇 스스로 학습하는 딥러닝 기술이 적용됐다. 이에 업력이 길어질수록 회원의 문체나 말버릇, 가치관이 깊이 내재된다. 출시 전에는 스캐터랩의 메시지 감정 분석 앱 ‘연애의과학’ ‘텍스트앳’ ‘진저’ 회원이 제공한 메시지 내용을 학습했다.

이루다는 일반 챗봇과 달리 ‘성격’이 부여된 것이 특징이다.  스캐터랩은 이루다를 ‘20세 여대생’으로 설정하고 실존 인물인 것처럼 인스타그램 계정도 개설했다. 자사 앱들에서 수집한 대화 자료가 있었기 때문에, 성격과 나이·성별을 특정할 수 있었던 것으로 보인다.

◇연애의과학 회원 “대화 자료, 타 목적 활용 허락 안해”

문제는 연애의과학·텍스트앳·진저 회원들은 제공한 대화 자료를 스캐터랩이 각 앱 서비스 외에, 다른 용도로 활용하도록 허락하지 않았다는 것이다.

스캐터랩 대표 앱인 연애의과학의 경우, 회원의 대화 내용을 수집하고 발화자가 어떤 기분인지 해석해주는 서비스를 운영하고 있다. 회원들이 실제 대화 자료를 제공하다 보니, 이름·주소·전화번호 등 개인정보가 섞여있을 가능성이 다분하다.

스캐터랩이 이 같은 개인정보를 가명처리해 활용했다면, 법적 책임에서 벗어날 수는 있다. 지난해 8월 데이터3법 개정으로, 본래 수집 목적 외에도 가명정보를 활용할 수 있게 됐기 때문이다.

그러나 이루다 이용자들 사이에서는 개인정보가 익명화되지 않았다는 주장이 나온다. 실명으로 추정되는 이름이나 실재하는 주소 및 은행 계좌번호 등을 언급했다는 것이다.

이에 이루다 이용자 일부는 스캐터랩을 상대로 소송도 준비 중인 것으로 알려졌다.

이루다는 성희롱·장애인을 차별하는 표현을 학습, 발언해 네티즌들로부터 비난을 받았다. / 사진=트위터 캡처 

◇AI 대상 성희롱, 처벌 받을까?

이용자들 가운데 일부는 이루다와 음담패설을 나눈 대화 내용을 그대로 SNS에 공유해 논란의 중심이 되기도 했다. 이루다가 20세 여대생이라는 설정을 지니다 보니, 여성을 성희롱하는 표현이 등장한 것.

다만 AI를 대상으로 한 성희롱 발언이 법적 문제가 되지는 않을 전망이다. 상대가 ‘사람’이 아닌, ‘AI 채팅 로봇’이기 때문이다.

단, 성희롱 도구가 될 수는 있다. 음담패설이 담긴 대화 내용을 실제 여성과 공유했을 때, 성희롱 목적이 있었다면 상대가 수치심을 느낄 수 있는 탓이다.

IT 관련 현안에 활발히 견해를 내놓고 있는 이재웅 전 쏘카 대표는 “성적 학대·악용은 사용자의 문제지 AI 서비스의 문제라고 보기 어렵다”며 “성적으로 악용하는 사람들이 그 과정을 공유하는 것은 적극 막아야 한다”고 지적했다.

사진=픽사베이
사진=픽사베이

◇IT기업이 ’AI 윤리관’ 손놓고 있어도 되나

이번 논란은 우리가 미래사회에 맞닥뜨릴 ‘AI 윤리관’ 문제를 잘 드러낸 사례이기도 하다. 이루다는 이용자로부터 성희롱 표현을 듣기도 했지만, 반대로 이루다가 이용자에게 각종 혐오 발언을 여과 없이 보이기도 했다.

이에 한국인공지능윤리협회는 지난 11일 “편향성, 개인정보 유출, 악용 등 AI 윤리 문제가 논란이 됐다”며 “AI 서비스를 개발하는 기업과 이용자가 AI 윤리의 중요성을 아직 인지하지 못하고 있는 상황”이라고 비판했다.

협회는 이어 “AI 학습에 활용되는 데이터는 신롸할 수 있고 편향적이지 않아야 한다”며 “이번 사례에서는 데이터 정제·선별 작업이 제대로 이뤄지지 않아 AI 챗봇이 동성애·장애인 등에 대한 편향 결과를 그대로 노출했다”고 덧붙였다.

IT기업이 AI 서비스를 출시하기 전, 가이드라인에 따른 품질 검수를 거쳐야 한다는 설명이다.

학계는 이런 상황을 ‘트롤리 딜레마’에 빗댄다. 차량 운행 중 브레이크가 고장나 앞에 있는 소수나 다수 무리와 접촉할 수밖에 없다면, 어느 쪽으로 운전대를 꺾을 것인지 판단하게 하는 상황을 가리키는 말이다. 만일 자율주행차가 가치 판단 학습이 되지 않았다면, 이 같은 상황에 놓였을 때 오류를 일으킬 수 있다. 개발자가 AI 윤리관 확립에 개입해야 하는 이유다.

스캐터랩은 논란이 된 사안들에 대해서는 AI 윤리관 확립에 소극적이었던 것으로 보인다. 스캐터랩은 11일 “우리는 이루다의 차별적 발언에 동의하지 않으며, 그러한 발언은 회사의 생각을 반영하지 않고 있다”고 밝혔다.

스캐터랩은 이루다의 문제점을 정비한 뒤 서비스를 재개할 계획이다.

한편, 이번 논란은 2016년 마이크로소프트가 공개한 트위터 기반 AI 챗봇 ‘테이’와 비교되기도 한다. 당시 마이크로소프트는 테이가 인종차별이나 홀로코스트 옹호 등 발언을 하는 상황을 예측하지 못했다고 인정하며, 출시 16시간 만에 운영을 중단했다. 스캐터랩은 유사한 상황이 재현되고 있음에도 이루다 서비스를 강행한다는 비판을 받았다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.