정보통신정책연구원 권효열 원장이 2일 열린 세미나에서 개회사를 진행하고 있다. / 사진=과학기술정보통신부 '사람중심의 인공지능(AI) 구현을 위한 정책세미나' 온라인 중계 캡처

[뉴스로드] 학계에서 전문가, 일반인 등 전 국민을 대상으로한 AI 윤리 교육이 이뤄져야 한다는 주장이 나온다. 전문가 양성 위주의 교육 현실이 계속되면 최근 ‘이루다’ 논란과 같은 문제가 재발할 수 있다는 지적이다.

과학기술정보통신부와 정보통신정책연구원은 ‘사람 중심의 AI를 위한 AI 윤리 정책 세미나를 2일 온라인으로 개최했다. 이 자리에서는 공공기관과 학계 전문가들이 모여 AI 윤리 정책 방향성에 대해 제언했다.

정보통신정책연구원 문정욱 지능정보사회정책센터장이 발언하고 있다. / 사진=과학기술정보통신부 '사람중심의 인공지능(AI) 구현을 위한 정책세미나' 온라인 중계 캡처

첫 연사로 나선 정보통신정책연구원 문정욱 지능정보사회정책센터장은 ‘AI 윤리 기준과 추진 과제’라는 주제로 발표했다. 문 센터장은 “향후 10년 간 AI로 인한 사회적 혜택이 위협보다 많겠지만, 잠재적 위협도 좌시해서는 안된다”며 말문을 열었다.

문 센터장은 AI 기술이 ‘맞춤형 서비스 구현’ ‘건강 관리’ ‘비즈니스 성과 개선’ 등 혜택을 사회에 가져다 줄 것으로 봤다. 반면 잠재적 위협으로는 ‘기술 오남용’ ‘데이터 편향성’ ‘알고리즘 차별’ 등 문제를 지목했다.

대표적인 기술 오남용 사례로는 2019년 유럽 에너지기업 CEO가 가짜로 생성된 모회사 CEO 음성에 속아 22만 유로를 송금한 사건이 있다.

데이터 편향성 문제로는 글로벌기업 아마존의 AI 기반 채용시스템이 기술직군에 남성만 추천한 일이 거론됐다.

알고리즘 차별 문제의 경우 AI 기반 범죄 예측 프로그램이 흑인 범죄자의 재범 가능성을 백인보다 2배 이상 높게 예측한 사례가 있다.

최근 불거진 AI 챗봇 ‘이루다’ 사건도 AI의 잠재적 위협 중 하나다. 이루다는 국민들의 대화 내용을 학습한 뒤, 취약계층을 차별하는 발언을 해 논란에 휩싸였다.

업계에서 겪고 있는 고충으로는 ‘고품질 데이터 및 인프라 부족’ ‘인력 부족’ ‘모호한 규제 적용 범위’ 등이 있다고 소개했다.

문 센터장은 “AI는 기술적 특성으로 인해 서비스에 문제가 발생할 시 책임관계 규명을 위한 법적 적용과 집행이 어렵다”며 “제도적으로 AI의 잠재적 위협을 통제할 수 없다는 불신은 이용자의 AI 기술 수용을 방해하고, 사회혁신의 기회를 잃게 할 수 있다”고 경고했다.

그는 이어 “윤리 기준은 관련 규범이 불확실하거나 법제도가 급속한 기술발전을 따라가지 못할 경우에도 사회가 나아가야 할 방향을 제시한다”며 “글로벌 기준에 부합하는 AI 윤리기준 마련돼야 한다”고 덧붙였다.

그는 끝으로 “사람 중심의 AI 구현을 위해 공공기관과 기업 등 모두가 참조할 수 있는 AI 윤리 기준이 필요하다”고 밝혔다.

서울교대 윤리교육학과 변순용 교수가 발언하고 있다. / 사진=과학기술정보통신부 '사람중심의 인공지능(AI) 구현을 위한 정책세미나' 온라인 중계 캡처

서울교대 윤리교육학과 변순용 교수는 ‘AI 윤리 교육의 방향’에 대해 발표했다. 변 교수는 “이루다 사례가 많이 언급된다. 우리는 이루다가 이루지 못한 것이 뭔가 고민해 봐야 한다”며 “이루다 사례는 전문가와 사용자 윤리 문제를 동시에 보여준다는 점에 의의가 있다”말했다.

변 교수는 “5년 전 마이크로소프트 AI 챗봇 테이 사례가 있었는데, 지금 왜 또다시 유사 사례가 발생했는지 짚어봐야 한다”며 “이는 개발사가 AI의 부작용 가능성을 인지했음에도 윤리 감수성이 현저히 낮거나 생각조차 하지 않은 것”이라고 비난했다.

그는 일련의 AI 윤리 관련 논란을 예방하기 위해 전문가만이 아닌 전 국민으 대상으로 한 AI 교육을 통해 윤리 역량을 강화해야 한다고 주장했다.

국내에서는 AI 윤리 교육을 소프트웨어 교육의 일부 영역으로 도입하고 있다. 중국의 경우 AI 교과서 를 발간하고 시범학교를 운영 중이다. 일본은 교육과정에 AI 교육을 일부 도입하고 정부 주도로 일관된 AI 교육정책 마련 중이다.

변 교수는 한국과 중국은 AI 전문가를 기르기 위한 직업교육의 전단계 분위기가 강하다고 판단했다. 반면 미국과 유럽은 AI가 사회에 미치는 영향이나 AI와 인간 간 상호작용 등 다양한 인문학적 고려가 반영됐다고 봤다.

그는 “AI는 인간의 존엄성을 침해하지 않아야 한다는 점에서 개인 도덕역량과 연결된다”며 “이에 AI는 사회에 가능한 많은 혜택을 제공할 수 있는 가치를 추구해야 한다”고 지적했다.

개발자는 AI로 인한 사회적 혜택을 특정 계층이 독점하지 않도록 하고, 취약계층도 쉽게 활용할 수 있도록 개발해야 한다는 설명이다.

정보통신기획평가원 이현규 AI·데이터 PM이 발언하고 있다. / 사진=과학기술정보통신부 '사람중심의 인공지능(AI) 구현을 위한 정책세미나' 온라인 중계 캡처

정보통신기획평가원 이현규 AI·데이터 PM은 AI 기술에 대한 대중들의 신뢰성을 확보하는 게 선결 과제라고 봤다.

이 PM은 “개발자조차도 AI의 행동을 예측하기 어려운 게 현실인 만큼, AI의 판단 근거를 이용자가 이해할 수 있도록 설명하는 기술을 연구해야 한다”고 말했다.

그는 이어 “개발자가 AI의 의사결정 과정에서 편향성이나 규칙 미준수 등 오류가 있는지 진단하는 기술력도 갖춰야 한다”고 덧붙였다.

저작권자 © 뉴스로드 무단전재 및 재배포 금지