[디지털 세상 읽기] 끊이지 않는 AI의 인종 문제

그런데 지난주에는 그록이 인종과 관련한 문제를 일으켰다. 한 사용자가 메이저리그 투수의 연봉에 관한 팩트체크를 했는데, 엉뚱하게 남아프리카 공화국에서 ‘백인 집단학살’이 일어나고 있다는 주장에 관한 이야기를 늘어놓은 것이다. 이를 알게 된 언론과 다른 사용자들이 테스트를 해도 역시 비슷한 답변이 나왔다.
현재 미국에서는 트럼프 행정부가 남아공의 백인들이 흑인들에게 박해를 받는다며 백인들 49명에게 난민 지위를 부여해 입국을 허용해서 논란이 되고 있다. 실제로 납치와 살인에 시달리는 남미 국가에서 들어오는 난민들은 거부하면서 정말로 박해가 일어나는지도 확인되지 않은 남아공의 백인들은 받아들여서 인종차별이라는 비판이 있다. 게다가 머스크가 현 행정부에서 일하고 있기 때문에 이 결정에 그의 입김이 작용했다는 의심도 받고 있다.
그록의 답변이 논란이 되자 회사 측에서는 직원 한 명의 독단적인 ‘시스템 프롬프트’ 수정에서 벌어진 일이었으며, 이를 바로 잡았다고 해명했다. 이번 일이 주는 교훈은 AI는 가치 판단, 정치적 판단의 진공 상태에 있지 않다는 것이다. 사람이 쓴 텍스트를 학습하고, 인간 직원이 작성한 시스템 프로프트에 따르기 때문이다. 특정 AI에 인종 문제와 관련한 편견이 있다면 그건 인간에게서 온 것이다.
박상현 오터레터 발행인
with the Korea JoongAng Daily
To write comments, please log in to one of the accounts.
Standards Board Policy (0/250자)