지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

[특별 기고] 남녀 차별하는 인공지능 번역 오류

필자는 지난 27일부터 스페인 바르셀로나에서 열리고 있는 인공지능 공정성 국제 학술대회에 참석하고 있다. 미국 컴퓨터 협회(ACM)의 후원을 받는 이공계 분야 행사인데도 세계 각국의 법률가·철학자·윤리학자·정책전문가들이 다수 참여하고 있다. 정식 명칭은 ‘인공지능 공정성·책임성·투명성에 관한 국제 학술대회’다. 그만큼 인공지능 공정성에 대한 세계적 관심이 뜨겁다는 뜻이다.

어떠한 제품이든지 연구개발 단계를 넘어 고객을 위한 제품으로 출시되면 예상치 못했던 여러 문제가 발견되게 마련이다. 인공지능 서비스도 예외는 아니다. 구글의 사진 인식 서비스는 한 흑인 여성의 얼굴을 “고릴라”라고 잘못 인식하는 바람에 급히 프로그램을 수정해야 했다. 흑인 여성에 대한 학습 데이터가 부족하여 인식 정확도가 낮았던 까닭이다. 마이크로소프트사가 2016년 내놓은 인공지능 채팅 프로그램은 출시 직후부터 인터넷 사용자들에게 인종차별적이고 폭력적인 표현을 학습하게 하는 문제가 발생했다. 결국 출시 하루 만에 서비스가 중단되고 말았다.

구글 번역 서비스에서도 문제점이 지적되곤 한다. 특히 터키어 오역 사례가 유명하다. 터키어는 3인칭 대명사에 성별 구분이 없다. 그래서 터키어로 “그는 의사다”라고 하면 그 사람이 남성일 수도, 여성일 수도 있다. 그런데도 구글 번역기는 이 터키어 문장을 “그 남자는 의사다(he is a doctor)”라고 번역했다. 언어 간 성별 차이를 고려하지 않은 잘못된 번역이다.

그뿐만 아니라 “그는 간호사다”라는 터키어 문장은 “그 여자는 간호사다(she is a nurse)”라고 잘못 번역됐다. 구글 번역 서비스가 데이터를 학습하면서 우리 사회의 차별적 문화까지 받아들여 잘못 학습한 결과다.



TV를 샀는데 화면이 잘 나오지 않으면 제품에 하자가 있다고 생각한다. 반드시 하자에 이르지 않는다고 하더라도 품질이 낮은 제품은 시장에서 외면받고 도태되게 마련이다. 인공지능의 경우에는 공정성이라는 성능을 충분히 갖추지 못하면, 고객의 선택을 받기 어렵다. 얼굴 인식 인공지능이 특정 인종이나 성별의 얼굴을 제대로 인식하지 못한다거나, 번역 인공지능이 언어 간 성별 차이를 제대로 고려하지 못한다면, 적정한 품질을 갖추지 못한 것이다. 그래서 우리는 인공지능의 공정성 문제를 인공지능 제품의 품질 문제로 보아야 한다.

우선 필요한 것은 인공지능이 과연 공정하게 동작하는지 진단하는 기술이다. 이는 일반 제품에 있어 하자가 있는지 검수하는 것과 비슷하다. 인공지능을 활용하여 실제 서비스에 적용하려는 기업들도 이러한 공정성 검수 절차를 충분히 거칠 필요가 있다. 제품 출시 이전에 미리 하자가 있는지 주의를 기울여야 손해 발생 위험을 줄일 수 있는 것처럼, 인공지능도 도입 전에 미리 공정성 평가를 하는 것이 좋다. 그래서 인공지능에 대한 체계적인 공정성 평가 기준을 정립하고자 하는 연구가 활발히 진행되고 있다.

만약 인공지능이 공정하게 동작하지 않는다면, 그 원인을 찾아서 고칠 필요가 있다. 그런데 현재의 인공지능은 그 내부 동작 원리를 손쉽게 파악하기가 어렵다. 그래서 인공지능의 동작 구조를 투명하고 이해하기 쉽게 만들고자 하는 시도가 이어지고 있다. 이를 흔히 ‘설명 가능 인공지능’이라고 한다. 최근 들어 크게 주목받고 있는 분야다.

인공지능 공정성 연구는 인공지능의 성능과 품질을 향상하는데 있어 중요한 역할을 할 것으로 기대된다.


김병필 / KAIST 기술경영학부 교수



Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스