광고닫기

세계적 인권 석학이 물었다, AI 오진 땐 누구 책임인가

중앙일보

2026.01.20 07:01

  • 글자크기
  • 인쇄
  • 공유
글자 크기 조절
기사 공유


셰니 히브리대 교수 인터뷰

19일 고려대학교 서울캠퍼스에서 유발 셰니(Yuval Shany) 히브리대 법학과 교수가 본지와 인터뷰 하고 있다. [사진 휴먼아시아]
“병원이 진단용으로 도입한 인공지능(AI)이 오진을 했다면, 책임은 누가 져야 할까요? AI를 만든 개발사일까요, 이를 활용한 병원일까요, 아니면 AI 진단 서비스를 제공한 플랫폼일까요?”

19일 고려대 서울캠퍼스에서 만난 유발 셰니(Yuval Shany) 히브리대 법학과 교수는 중앙일보와의 인터뷰에서 이 같은 예시를 들며 “AI가 우리 삶에 직접적인 영향을 미치기 시작한 지금, 기존의 인권 체계로는 충분하지 않다”고 주장했다. AI 시대에 새롭게 침해받거나 충돌할 수 있는 인간의 권리를 명문화 하는 작업이 필요하다는 것이다.

셰니 교수는 2013년부터 8년간 유엔 자유권규약위원회에서 활동하며 2018~2019년 위원장을 역임했다. 현재 영국 옥스퍼드대 윤리·AI 연구소 석좌 교수를 겸임하는 국제인권법 분야 석학이다. 그는 이날 고려대·휴먼아시아가 주최한 ‘국제 AI 인권장전 세미나’ 참석차 한국을 방문했다.

셰니 교수에 따르면 AI 시대의 의사 결정은 ‘사람 대 기계’의 관계에 기반한다. 의사와 환자, 교수와 학생, 정부와 시민 등 인간관계가 기계로 대체되면서 대출·입학·채용 등 개인의 권리는 작동 원리조차 알기 어려운 AI 시스템에 좌우된다. 그가 ‘국제 AI 인권장전’ 마련의 필요성을 강조하는 이유다. 셰니 교수는 “AI 시스템은 개발부터 활용까지 가치사슬이 길어 책임이 분산되는 ‘많은 손의 문제’가 발생한다”며 “할루시네이션(환각)이 개인의 권리를 침해할 정도로 AI의 영향력은 커졌지만, 이를 사전 통제하거나 사후적으로 책임을 물을 공통 기준이 없다”고 지적했다. 일례로 잘못된 의료 진단이나 대규모 데이터 활용으로 개인정보가 침해돼도 책임 소재가 불분명하다는 것이다.

AI는 하루가 다르게 발전하고 있는데, 현 시점에서 AI 인권 기준을 논하는 게 의미 있을까. 셰니 교수는 이러한 의구심에 대해 “기술이 완성되는 시점은 존재하지 않는다”며 “머신러닝·딥러닝을 거쳐 생성 AI, 에이전트 AI, 범용인공지능(AGI) 등 천장을 깼다고 생각하면 그 위에 또 다른 천장이 나타난다”고 설명했다. 그는 “AI 인권은 기술이 안정된 뒤 논의할 사안이 아니라, 지금 이 순간 발생하고 있는 피해를 보호하기 위한 최소한의 안전장치”라고 했다. 22일부터 시행되는 한국의 AI 기본법에 대해선 “AI 발전과 합리적 규제를 동시에 모색하는 의미 있는 사례가 될 수 있다”고 평가했다.

관건은 기업 등 주요 주체들의 참여다. 이날 세미나에 참석한 기업들은 현실적인 상황들을 언급했다. 한 기업 관계자는 “새로운 인권장전이 기존 법·제도의 어떤 공백을 메우는지에 대한 설명이 필요하다”며 “기업 입장에선 각 나라 상황에 맞게 서비스를 현지화·구체화하고, 자체 시스템에 이를 내재화하는 과정이 수반돼야 하기 때문”이라고 했다.

셰니 교수는 “윤리적 정당성과 고객 신뢰를 중시하는 기업 특성상 동기는 충분하다”며 “메타·구글 등 실제 만났던 빅테크 관계자들도 예상보다 진지한 관심을 표했다”고 말했다. 기업 참여보다 더 큰 장애물로 지정학적 긴장, 유엔 등 국제기구의 영향력 약화, 강한 반(反)규제 기조를 지적하기도 했다. 그는 다음 달 영국 옥스포드 대학에서 AI 인권장전 화이트페이퍼(정책백서)를 공식 발표하고, 관련 논의를 본격화할 계획이다.





어환희([email protected])

많이 본 뉴스

      실시간 뉴스