'AI 면접 공정한가' 온라인 토론회서 쏟아진 쟁점
'AI 면접 공정한가' 온라인 토론회서 쏟아진 쟁점
  • 김윤진 기자
  • 승인 2021.02.17 17:10
  • 댓글 0
이 기사를 공유합니다

더불어민주당 정필모 의원실은 17일 'AI의 공정성·투명성·책임성 보장을 위한 법제 정비 방안'을 주제로 토론회를 개최했다. / 사진=정필모 의원실 페이스북 중계 캡처
더불어민주당 정필모 의원실은 17일 'AI의 공정성·투명성·책임성 보장을 위한 법제 정비 방안'을 주제로 토론회를 개최했다. / 사진=정필모 의원실 페이스북 중계 캡처

[뉴스로드] AI 면접에서 형평성 문제가 잇따르고 있어 관련 제도를 속히 정비해야 한다는 주장이 나온다.

더불어민주당 정필모 의원실은 17일 ‘AI의 공정성·투명성·책임성 보장을 위한 법제 정비 방안’을 주제로 온라인 토론회를 개최했다. 이 자리에서는 학계·법조계·시민단체 인사들이 모여 AI 관련 쟁점 및 해결 방안을 제시했다.

서울대 공익법률센터 오정미 변호사가 발언하고 있다. / 사진=정필모 의원실 페이스북 중계 캡처

이날 세미나 참석자들은 ‘AI 면접’에 대한 문제를 중점적으로 다뤘다. 발제를 맡은 서울대 공익법률센터 오정미 변호사는 “최근 이루다 사태로 AI 문제에 대한 논의가 활발해지고 있지만, AI 면접의 형평성 문제도 꾸준히 제기되고 있다”며 말문을 열었다.

AI 면접은 AI가 채용 면접관으로 참여하는 면접 방식이다. 이는 일반적인 면접과 달리, 면접관이 어떤 기준으로 응시자에게 점수를 매기는지 구체적으로 알 수 없어 취업준비생들 사이에서 논란거리다.

예를 들어 한국방송통신전파진흥원은 지난해 신입사원 면접에 응시한 315명 가운데 228명을 AI의 판단에 따라 탈락시켰다. 그러나 불합격자들은 본인이 어떤 사유로 떨어졌는지 들을 수 없었다.

이와 관련해 오 변호사는 “신기술 사용이 어떤 결과를 초래하는지 불확실한 만큼, 공공의 안전은 보장돼야 한다”며 “불합격 사유를 설명하기 어려운 AI의 판단을 당연하게 받아 들여야 하는 것인지 생각해 볼 시점”이라고 말했다.

오 변호사는 AI 사용 결과가 공정성을 보장할 수 있도록 규제해야 한다고 제안했다. IT기업들이 AI 고도화에 활용하기 위한 훈련데이터를 수집하는 시점부터, 특정 집단이나 계층에 차별이 생기지 않도록 통제해야 한다는 것. 특히 공공영역에 적용되는 AI에는 민간보다 더 강한 의무를 부여해야 한다고 봤다.

AI가 반드시 공정성을 보장하도록 설계돼야 한다는 의견도 있었다. 토론자로 나선 카이스트 기술경영학부 김병필 교수는 “AI가 인간보다 면접 심사를 잘할까 의문이 든다”며 “그 이유는 ‘잘한다’는 것이 무엇인지 정의하는 것부터 어렵기 때문”이라고 말했다.

AI가 특정 집단 및 출신의 개인에게 불리하게 대하는 현상이 지속되면, 그 개인의 삶에 누적되는 부당함이 커질 것이라는 지적이다.

정보인권연구소 장여경 이사가 발언하고 있다. / 사진=정필모 의원실 페이스북 중계 캡처

정보인권연구소 장여경 이사는 해외에서 선행된 법제 사례를 국내에서 참고해야 한다고 말했다. 장 이사는 “유럽연합은 지난해 AI 규제 로드맵을 제시했다”며 “AI 중에서도 위험성이 높은 제품을 구분해 규제를 차등적용 해야 한다는 것”이라고 설명했다.

유럽연합이 지난해 발간한 인공지능백서에 따르면, 고위험 AI는▲인간에게 상해나 재산상 피해를 입힐 가능성이 높은 방법으로 사용되는 경우 ▲채용 과정과 근로자 권리에 영향을 미치는 경우 ▲소비자 권리에 영향을 미치는 경우 등에 적용한다.

유럽연합은 이 같은 고위험 AI가 ▲위험 상황을 일으킬 수 있는 시나리오를 고려해 안전을 보장하고 ▲시스템 구축에 사용된 프로그래밍 및 고도화 훈련 방법론에 대해 문서화 할 것 등을 소속 국가들에 제안했다.

AI가 객관성을 가지고 면접에 임하기 어렵다는 시각도 있었다. 진보네트워크센터 김민 정책활동가는 “AI 기술이 향상되면서 차별, 개인정보 침해 등 새로운 문제가 잇따라 발견되고 있다”며 “기업은 객관적이고 공정한 채용 절차를 마련했다 생각하지만, 드러나지 않은 차별 위험이 항시 존재한다”고 경고했다.

진보네트워크센터 김민 정책활동가가 제시한 `공공기관 AI 채용 평가 사례. / 사진=정필모 의원실 페이스북 중계 캡처

예를 들어 기업들은 AI가 사내 고성과자의 데이터를 학습하도록 개발하기 마련인데, 꼭 그들과 비슷한 특징을 가진 응시자들의 직무 역량이 특출할지 신뢰하기 어렵다는 주장이다.

국내에서는 2019년 기준 기업의 11.4%가 AI를 채용 과정에 활용한다. AI는 많은 응시자들을 적은 비용과 빠른 속도로 검증할 수 있다는 데 이점이 있다. 하지만 입법부나 기업들은 AI가 사람이 아니라서 객관적이라는 선입견이 타당한 생각인지는 짚어 볼 필요가 있다.

정필모 의원실은 이날 논의된 내용을 향후 입법에 참고할 계획이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.