광고닫기

[노동법] AI 채용도 차별금지

Los Angeles

2025.10.14 23:24

  • 글자크기
  • 인쇄
  • 공유
글자 크기 조절
기사 공유
가주, AI 인사결정 규제 본격 시행
특정 단체 불리할 시 고용주 책임
오는 10월 1일부터 가주에서 인공지능(AI)을 활용한 채용·승진 등 인사 결정에 대해 새로운 규제가 시행됐다. 가주 인권국(CRD)은 최근 ‘자동화 의사결정 시스템(ADS)’이 공정고용주택법(FEHA)의 적용을 받는다는 최종 규정을 확정했다. 이는 AI가 사람의 판단과 동일한 수준으로 차별금지 심사를 받게 된다는 의미다.
 
이제 고용주는 AI를 사용한 인사 결정이 FEHA를 준수하고 있음을 입증할 수 있어야 한다. 즉, AI 도구에 대한 편향성 테스트, 관련 자료 보관, 인간의 실질적 감독 절차를 갖추어야 한다. 이는 기술 중심의 인사관행을 근본적으로 재편하는 변화로, 향후 전국적 기준에도 큰 영향을 미칠 전망이다.
 
이번 규제의 가장 주목할 점은 챗GPT와 같은 생성형 AI도 규제 대상에 포함된다는 점이다. CRD는 “기계학습, 통계, 데이터처리 등 인간의 의사결정을 수행하거나 보조하는 모든 계산적 절차”를 ADS로 정의했다. 따라서 챗GPT, GPT 기반 플러그인, 코파일럿, 이력서 자동분석 프로그램, 화상 면접 알고리즘 등은 모두 규제 범위 안에 있다.
 
문제는, AI의 판단 결과가 중립적으로 보이더라도 법적 책임은 고용주에게 있다는 점이다. 예를 들어 인사담당자가 챗GPT에 “세 명의 지원자 중 가장 적합한 사람을 추천해달라”고 입력해 그 결과를 인사 결정에 반영했다면, AI의 추천이 특정 인종이나 연령층에 불리하게 작용할 경우 그 차별의 책임은 고용주에게 귀속된다.
 
즉, “AI가 한 일”은 “고용주가 한 일”로 간주된다. AI가 스스로 결정했거나 외주업체가 설계한 알고리즘이라도, 결국 인사 결정에 사용한 것은 고용주이기 때문이다.
 
또한 “의도하지 않았다”라거나 “AI가 중립적으로 판단했다"는 항변도 소용이 없다. FEHA는 고용주가 차별의 의도(intent)를 가졌는지가 아니라, 결과적으로 특정 집단에 불리한 효과(effect)가 발생했는지를 기준으로 보기 때문이다. 중립적인 알고리즘이라 하더라도 결과적으로 여성이 덜 합격하거나 장애인 지원자가 낮은 평가를 받는다면 차별로 본다.
 
이번 규제는 ‘인간의 의사결정을 수행하거나 보조하는 모든 계산적 절차’에 적용된다. 이력서 자동분석 프로그램, 인성·인지능력 검사, 화상 면접 분석 알고리즘 등 다양한 AI 기반 채용 도구가 모두 포함된다.
 
AI 시스템이 특정 집단에 불리한 결과(Disparate Impact)를 낳는다면, 이는 곧 고용주가 차별한 것으로 간주된다. 알고리즘의 편향 또한 고용주의 책임이다.
 
AI 관련 자료, 지원서, 인사기록은 최소 4년간 보관해야 한다. 이는 기존의 2년보다 두 배로 늘어난 기간이며, 조사나 소송이 발생하면 더 오래 보관해야 한다.
 
고용주는 즉시 AI 도구를 점검하고 채용·승진·인사관리에서 사용 중인 자동화 시스템의 편향 가능성을 검토해야 한다. 또한, 기술 공급업체 등의 벤더로부터 편향 테스트 및 규제 준수 여부를 문서로 확보해 놓아야 한다.
 
이제 “AI가 결정했으니 책임이 없다”는 주장은 통하지 않는다. 결국 기술의 시대에도, 책임은 여전히 사람에게 있다는 점을 명심해야 한다.
 
▶문의: (213)700-9927

박수영 변호사/반스&손버그 Barnes & Thornburg

많이 본 뉴스

      실시간 뉴스