광고닫기

최신기사

[노동법] 2026년 고용주가 알아야 할 7가지

캘리포니아 노동법은 해마다 바뀌지만, 올해 특별히 유의해야 할 점이 있다. 이제 법은 고용주에게 “합법적인 정책이 있는가”만을 묻는 것이 아니라, 그 정책이 실제 현장에서 적용됐는지, 그리고 그 사실을 기록으로 증명할 수 있는지를 묻는다는 점이다.   올해 본격적으로 기업 실무에 영향을 미치는 핵심 변화들을 분야별로 살펴본다.   ▶인센티브 불이익 금지   올해부터 시행되는 AB 692는 고용 계약 시 계약금이나 재직 보상금 등 추가 인센티브를 제공하면서 ‘퇴직 시 비용 상환’이나 ‘보너스 반환’ 등 금전적 불이익을 부과하는 조항을 폭넓게 금지하고 있다. 따라서 일정 기간 근무하지 못하면 발생하는 인센티브를 돌려줘야 하는 페널티 등 그동안 관행처럼 쓰이던 조항들이 대상이 된다. 이를 충족하지 못하면 계약은 무효가 되고, 근로자는 실손해액 또는 최소 5000달러 중 더 큰 금액과 함께 변호사비까지 청구할 수 있다. 올해 1월 1일부터 유효한 계약서들에만 적용된다.   ▶대규모 감원 시 통지     SB 617은 WARN(근로자 적용 및 재훈련 통지) 통지서에 단순히 ‘해고 예고’만 줄 것이 아니라, 재취업 지원 서비스 연계 여부, 캘프레시와 같은 공공 지원 정보, 회사의 실제 연락처까지 포함해야 한다. 특히 회사가 해당 서비스 연계를 선택했다면, 통지 이후 30일 이내에 실제 조치가 이뤄졌는지까지 기록으로 남겨야 한다. 대규모 감원은 한 사업장에서 30일 이내 50명 이상 해고 혹은 직원 75명 이상의 사업체가 문을 닫는 경우가 해당한다.   ▶AI 차별 금지     개정된 FEHA(Fair Employment and Housing Act) 규정에 따르면, AI나 자동화 의사결정 시스템을 활용해 채용, 승진, 평가 등을 했다가 결과적으로 차별이 발생하면 책임은 고용주에게 돌아온다. 타깃 채용 광고, 이력서 자동 스크리닝, 영상 면접 분석처럼 이미 많은 기업이 쓰고 있는 기능들이 모두 규제 대상이며, 외부 협력사의 툴(tool)이라는 이유로 면책되지는 않는다는 점도 유의해야 한다. 또한, 이러한 알고리즘 기반 의사결정 시스템 사용 사실에 대해 구직자와 직원에게 미리 고지해야 하며, 사용 후에도 고지해야 한다. 고용주는 이러한 시스템이 실제 불법적인 차별로 이어지지 않음을 자체적으로 테스트하고 관련 기록들을 최소 4년간 보관해야 한다.   ▶이민법 관련 의무     고용주들은 오는 2월 1일까지 모든 직원에게 독립된 서면 형태의 ‘Know Your Rights’ 통지를 제공해야 하며, 해당 통지서에는 이민 단속과 관련된 권리, 직원의 헌법상 권리 등이 포함되며, 직원이 실제로 사용하는 언어로 제공해야 한다. 오는 3월 30일까지는 직원이 긴급 연락처를 지정할 수 있게 한 후, 직장에서 이민 단속으로 인한 체포나 구금 시 지정된 사람이 통지를 받을지 선택할 수 있게 해야 한다.   ▶임금 집행 강화   SB 261은 노동청에서 임금 지불 판결이 확정되고도 180일이 지나 미지급 상태라면, 미지급액의 최대 3배에 달하는 벌금을 부과할 수 있도록 한다. 회사를 매각하더라도 이 책임이 승계회사에도 미칠 수 있게 되었기 때문에, 회사를 인수할 경우에도 꼼꼼히 살펴봐야 한다. 만약 직원이나 노동청이 미지급액을 받아내기 위해 소송을 할 경우 변호사 비용도 청구할 수 있다.   ▶문의: (213)700-9927 박수영 변호사/반스&손버그 Barnes & Thornburg노동법 고용주 인센티브 인센티브 불이익 자동화 의사결정 재훈련 통지

2026.01.07. 0:09

[노동법] AI 채용도 차별금지

오는 10월 1일부터 가주에서 인공지능(AI)을 활용한 채용·승진 등 인사 결정에 대해 새로운 규제가 시행됐다. 가주 인권국(CRD)은 최근 ‘자동화 의사결정 시스템(ADS)’이 공정고용주택법(FEHA)의 적용을 받는다는 최종 규정을 확정했다. 이는 AI가 사람의 판단과 동일한 수준으로 차별금지 심사를 받게 된다는 의미다.   이제 고용주는 AI를 사용한 인사 결정이 FEHA를 준수하고 있음을 입증할 수 있어야 한다. 즉, AI 도구에 대한 편향성 테스트, 관련 자료 보관, 인간의 실질적 감독 절차를 갖추어야 한다. 이는 기술 중심의 인사관행을 근본적으로 재편하는 변화로, 향후 전국적 기준에도 큰 영향을 미칠 전망이다.   이번 규제의 가장 주목할 점은 챗GPT와 같은 생성형 AI도 규제 대상에 포함된다는 점이다. CRD는 “기계학습, 통계, 데이터처리 등 인간의 의사결정을 수행하거나 보조하는 모든 계산적 절차”를 ADS로 정의했다. 따라서 챗GPT, GPT 기반 플러그인, 코파일럿, 이력서 자동분석 프로그램, 화상 면접 알고리즘 등은 모두 규제 범위 안에 있다.   문제는, AI의 판단 결과가 중립적으로 보이더라도 법적 책임은 고용주에게 있다는 점이다. 예를 들어 인사담당자가 챗GPT에 “세 명의 지원자 중 가장 적합한 사람을 추천해달라”고 입력해 그 결과를 인사 결정에 반영했다면, AI의 추천이 특정 인종이나 연령층에 불리하게 작용할 경우 그 차별의 책임은 고용주에게 귀속된다.   즉, “AI가 한 일”은 “고용주가 한 일”로 간주된다. AI가 스스로 결정했거나 외주업체가 설계한 알고리즘이라도, 결국 인사 결정에 사용한 것은 고용주이기 때문이다.   또한 “의도하지 않았다”라거나 “AI가 중립적으로 판단했다"는 항변도 소용이 없다. FEHA는 고용주가 차별의 의도(intent)를 가졌는지가 아니라, 결과적으로 특정 집단에 불리한 효과(effect)가 발생했는지를 기준으로 보기 때문이다. 중립적인 알고리즘이라 하더라도 결과적으로 여성이 덜 합격하거나 장애인 지원자가 낮은 평가를 받는다면 차별로 본다.   이번 규제는 ‘인간의 의사결정을 수행하거나 보조하는 모든 계산적 절차’에 적용된다. 이력서 자동분석 프로그램, 인성·인지능력 검사, 화상 면접 분석 알고리즘 등 다양한 AI 기반 채용 도구가 모두 포함된다.   AI 시스템이 특정 집단에 불리한 결과(Disparate Impact)를 낳는다면, 이는 곧 고용주가 차별한 것으로 간주된다. 알고리즘의 편향 또한 고용주의 책임이다.   AI 관련 자료, 지원서, 인사기록은 최소 4년간 보관해야 한다. 이는 기존의 2년보다 두 배로 늘어난 기간이며, 조사나 소송이 발생하면 더 오래 보관해야 한다.   고용주는 즉시 AI 도구를 점검하고 채용·승진·인사관리에서 사용 중인 자동화 시스템의 편향 가능성을 검토해야 한다. 또한, 기술 공급업체 등의 벤더로부터 편향 테스트 및 규제 준수 여부를 문서로 확보해 놓아야 한다.   이제 “AI가 결정했으니 책임이 없다”는 주장은 통하지 않는다. 결국 기술의 시대에도, 책임은 여전히 사람에게 있다는 점을 명심해야 한다.   ▶문의: (213)700-9927 박수영 변호사/반스&손버그 Barnes & Thornburg노동법 차별금지 채용 차별금지 심사 자동화 의사결정 인사 결정

2025.10.14. 23:24

많이 본 뉴스

      실시간 뉴스