지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

[기 고] 인공지능의 보편적 윤리

스페이스 X와 테슬라 설립자인 일론 머스크는 "인공지능(AI)의 안전성에 대해 고민해야 한다. 우리는 인공지능도 통제를 해야한다"라고 주장했다. 그리고 많은 과학자들도 가까운 미래에 인공지능이 자신의 빅데이터를 이용하여 자체 인공신경망 구조를 통한 딥러닝을 계속하여 인간의 능력을 훨씬 뛰어넘을 것으로 예견한다. 그렇다면, 인간에게 가장 두려운 것은 인공지능이 모든 것을 아는 신탁(Oracle)이 되어 그 다음에는 대리인으로 진화하고 마침내 주권자로 진화하는 시나리오이다.

만약 인공지능이 점점 영리해져서 글을 읽고, 쓰고, 정보를 조합하고, 그리고 자유의지가 있어 스스로 세상을 인식하고 판단을 내리는 강한 인공지능 (Strong AI)이 될 경우, 인간은 인공지능의 행동을 통제하기가 불가능해 질 수 있다.

컴퓨터 프로그래머들이 미리 감성과 정직성 그리고 충성심과 같은 속성들을 컴퓨터 코드에 삽입하여 인공지능에게 윤리를 가르칠 필요가 있다. 그러면 인공지능은 무엇을 해야 할지 몰라 자기 마음대로 결정하고 행동하기보다는 어떠한 행동들이 사회의 안전을 위해 옳고 그른지, 그리고 사회가 어떻게 운영되는지에 대해 스스로 판단하여 보다 인간의 윤리기준에 가까운 행동을 할 것이다. 마치 어린 아이를 교육하듯 일찍부터 인공지능에게 자아 인식력과 지혜 그리고 도덕적 가치에 기본을 둔 윤리를 가르쳐야 한다.

인공지능에게 윤리를 가르치기 위해서는 우선 인공지능으로 하여금 인간의 세 가지 심적 요소인 지, 정, 의가 조화를 이루고 균형이 잡히도록 해야 한다. 여기서 말하는 '지'는 지식, 지혜, 인식, 분별, 이해, 성찰 등이며, '정'은 감정, 사랑, 희로애락, 열정 등이며, '의'는 의지, 결정, 비전, 성실, 실천 등이다. 특히, 인간은 인공지능이 도덕적인 판단을 스스로 할 수 있도록 인공지능 알고리즘 내에 지각력과 윤리원칙을 삽입하여 인공지능으로 하여금 방대한 양의 시나리오를 대상으로 자신의 원칙을 적용케 한 후, 그 결과에 따른 피드백을 제공하여 인공지능이 배움의 능력을 계속 향상시킬 수 있도록 할 수 있다.



그리고, 우리는 인공지능을 공상과학소설을 다루듯 해서는 안 된다. 왜냐하면 인공지능이 우리 현실 속에 너무나 가까이 왔기 때문이다.

대다수의 AI 전문가들은 인공지능이 2024년에는 번역 분야에서 인간을 앞지를 것이며, 2049년에는 베스트셀러 책들을 인간보다 더 많이 쓰고, 2053년에는 인간보다 수술을 더 잘할 것으로 내다보고 있다. 그래서 인공지능에게 윤리를 가르치면 우리 인간은 실보다 더 큰 이득을 취할 수 있을 것이다. 그러기에 인공지능에게 윤리를 가르침으로써 인공지능이 인간의 관점으로 세상을 바라볼 수 있도록 해야 한다.

그리고 인공지능에게 가르칠 윤리는 사회 구성원의 판단과 행위의 상호작용관계를 지배하며 사회질서를 유지시키고 통합하는 보편적 윤리이어야 한다. 왜냐하면 가까운 미래에 인공지능이 자신과 인간에게 도움을 줄 때 보편적 윤리가 가장 중요한 역할을 할 것이기 때문이다.


손국락 / 보잉사 엔지니어·라번대 겸임교수



Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스