광고닫기

최신기사

[노동법] AI 채용도 차별금지

오는 10월 1일부터 가주에서 인공지능(AI)을 활용한 채용·승진 등 인사 결정에 대해 새로운 규제가 시행됐다. 가주 인권국(CRD)은 최근 ‘자동화 의사결정 시스템(ADS)’이 공정고용주택법(FEHA)의 적용을 받는다는 최종 규정을 확정했다. 이는 AI가 사람의 판단과 동일한 수준으로 차별금지 심사를 받게 된다는 의미다.   이제 고용주는 AI를 사용한 인사 결정이 FEHA를 준수하고 있음을 입증할 수 있어야 한다. 즉, AI 도구에 대한 편향성 테스트, 관련 자료 보관, 인간의 실질적 감독 절차를 갖추어야 한다. 이는 기술 중심의 인사관행을 근본적으로 재편하는 변화로, 향후 전국적 기준에도 큰 영향을 미칠 전망이다.   이번 규제의 가장 주목할 점은 챗GPT와 같은 생성형 AI도 규제 대상에 포함된다는 점이다. CRD는 “기계학습, 통계, 데이터처리 등 인간의 의사결정을 수행하거나 보조하는 모든 계산적 절차”를 ADS로 정의했다. 따라서 챗GPT, GPT 기반 플러그인, 코파일럿, 이력서 자동분석 프로그램, 화상 면접 알고리즘 등은 모두 규제 범위 안에 있다.   문제는, AI의 판단 결과가 중립적으로 보이더라도 법적 책임은 고용주에게 있다는 점이다. 예를 들어 인사담당자가 챗GPT에 “세 명의 지원자 중 가장 적합한 사람을 추천해달라”고 입력해 그 결과를 인사 결정에 반영했다면, AI의 추천이 특정 인종이나 연령층에 불리하게 작용할 경우 그 차별의 책임은 고용주에게 귀속된다.   즉, “AI가 한 일”은 “고용주가 한 일”로 간주된다. AI가 스스로 결정했거나 외주업체가 설계한 알고리즘이라도, 결국 인사 결정에 사용한 것은 고용주이기 때문이다.   또한 “의도하지 않았다”라거나 “AI가 중립적으로 판단했다"는 항변도 소용이 없다. FEHA는 고용주가 차별의 의도(intent)를 가졌는지가 아니라, 결과적으로 특정 집단에 불리한 효과(effect)가 발생했는지를 기준으로 보기 때문이다. 중립적인 알고리즘이라 하더라도 결과적으로 여성이 덜 합격하거나 장애인 지원자가 낮은 평가를 받는다면 차별로 본다.   이번 규제는 ‘인간의 의사결정을 수행하거나 보조하는 모든 계산적 절차’에 적용된다. 이력서 자동분석 프로그램, 인성·인지능력 검사, 화상 면접 분석 알고리즘 등 다양한 AI 기반 채용 도구가 모두 포함된다.   AI 시스템이 특정 집단에 불리한 결과(Disparate Impact)를 낳는다면, 이는 곧 고용주가 차별한 것으로 간주된다. 알고리즘의 편향 또한 고용주의 책임이다.   AI 관련 자료, 지원서, 인사기록은 최소 4년간 보관해야 한다. 이는 기존의 2년보다 두 배로 늘어난 기간이며, 조사나 소송이 발생하면 더 오래 보관해야 한다.   고용주는 즉시 AI 도구를 점검하고 채용·승진·인사관리에서 사용 중인 자동화 시스템의 편향 가능성을 검토해야 한다. 또한, 기술 공급업체 등의 벤더로부터 편향 테스트 및 규제 준수 여부를 문서로 확보해 놓아야 한다.   이제 “AI가 결정했으니 책임이 없다”는 주장은 통하지 않는다. 결국 기술의 시대에도, 책임은 여전히 사람에게 있다는 점을 명심해야 한다.   ▶문의: (213)700-9927 박수영 변호사/반스&손버그 Barnes & Thornburg노동법 차별금지 채용 차별금지 심사 자동화 의사결정 인사 결정

2025.10.14. 23:24

[노동법] AI 기반의 HR

최근 모임에서 빠지지 않는 화제 중 하나가 챗GPT와 인공지능(AI)인 것 같다. 검색어를 입력하면 관련된 웹사이트를 나열만 해주는 구글과는 달리, 챗GPT는 질문에 대한 정보를 스스로 수집해 정리된 답변을 준다.   아직까지 많이 쓰이지는 않지만, 챗GPT를 기반으로 한 HR 프로그램들이 활발히 개발 중이고, 벌써 일부 회사들은 입사 지원서나 레주메 등을 분리하고 스크린하는 작업에 AI의 도움을 받고 있다. 또한, 앞으로는 고용주들이 병가 허가 결정이나 해고 결정 등의 중요한 인사 결정을 내릴 때, AI를 기반으로 한 프로그램들을 통해 빠른 답변을 받을 수 있는 시대도 곧 올 것이다.   그러면 AI가 상황을 분석한 후 직원을 해고해도 문제없다는 답변을 주어 고용주가 이에 따라 직원을 해고했는데, 직원이 차별이나 보복적 부당 해고 소송을 제기했을 경우, 고용주는 AI에게 책임을 전가할 수 있을까.     차별이나 보복 등은 고용주의 ‘의도적’인 행위이며, 불법적인 해고 사유였다는 것을 증명해야 하는데, 중립적인 AI의 결정이었기 때문에 의도적이지도 불법적이지도 않았다고 주장할 수 있을까.   이러한 질문들에 대비해 최근 캘리포니아는 관련된 법안을 부지런히 발의 중이다. 캘리포니아에서 부당 해고는 고용주가 의도적으로 차별이나 보복적인 인사 조처를 할 때도 성립이 되지만, 그러한 의도가 분명하지 않다고 해도 결과적으로 차별적이거나 보복적인 상황이 되었을 경우에도 부당해고가 성립될 수 있다.     예를 들어, 회사가 구조조정을 했는데 입사 날짜에 따라 정리해고 대상자를 선정했음에도 불구하고 해고 대상자가 모두 여성일 경우, 겉으로는 차별적인 이유가 아니지만, 결과적으로 차별적인 결과가 되었을 경우, 상황이 때라 부당해고가 성립될 수도 있다. 따라서, 불법적인 의도 없이 AI에 의존하여 결정을 내렸다 하더라도, 결과에 대해서는 고용주의 책임이 따른다는 것이다.   따라서, 현재 발의 중인 캘리포니아 법안은 고용주가 AI를 통한 인사 결정을 내릴 때도 ‘impact assessment’ 즉 그러한 결정의 결과를 고용주가 자체 분석 및 평가할 의무를 지도록 하고 있다. 또한, AI 기반의 프로그램을 만든 개발자나 판매자의 책임과 그러한 프로그램을 사용하는 고용주의 책임을 각각 다르게 정의하고 있다.   미국 내에서 가장 발 빠르게 움직이고 있는 캘리포니아에서도 아직 정확한 가이드라인이 나오려면 많은 시간과 실무 경험, 시행착오가 필요할 것 같다. 법의 테두리 안에서 잘 만들어진 AI 기반의 HR 프로그램이 많이 생겨나면 분명 고용주의 HR 업무에 큰 도움이 되고 법을 준수하기도 훨씬 쉬워질 전망이다. 하지만 결정적인 책임은 고용주에게 짊어지도록 법이 설계되고 있기 때문에 사용에 주의가 필요하다.   앞으로 10년간 노동시장은 물론 노동법에도 많은 변화가 있을 예정이기 때문에 고용주들의 관심과 주의가 필요해 보인다.   ▶문의:(310)284-3767 박수영 / Barnes & Thornburg, LLP·변호사노동법 기반 프로그램 인사 결정 정리해고 대상자 ai 기반

2023.04.19. 17:41

많이 본 뉴스

      실시간 뉴스