광고닫기

AI에게 외로움도 호소하는 시대

Toronto

2025.10.18 22:21

  • 글자크기
  • 인쇄
  • 공유
글자 크기 조절
기사 공유
전문가 “편리함에 도덕적 자율성까지도 내맡겨
‘Open Ai’사가 개발한 ‘Chat Gpt’ [언스플래쉬 @Emiliano Vittoriosi]

‘Open Ai’사가 개발한 ‘Chat Gpt’ [언스플래쉬 @Emiliano Vittoriosi]

 
AI 챗봇 사용이 일상화되면서, 인간이 스스로 내리는 도덕적 판단이 점차 약화되고 있다는 지적이 제기됐다.
 
편리함이 가져온 ‘도덕적 위임’
이제 사람들은 복잡한 문제에 부딪히면 “검색해봐” 대신 “AI에게 물어봐”라고 말한다. AI는 단순한 정보 검색이 아니라 감정적인 문장과 맞춤형 조언을 제공해 사용자의 사고 부담을 덜어준다. 그러나 이 과정에서 인간의 사고력과 자율성이 점차 AI에 의존하게 된다는 우려가 나온다.
 
AI는 감정을 이해하지 못한다
팟캐스트 ‘더 빅 스토리(The Big Story)’ 진행자 마리아 케스테인은 퓨처리즘(Futurism) 수석 저자 매기 해리슨 듀프레와의 대담에서 “AI 챗봇은 인간의 복잡한 감정 문제를 해결하도록 설계되지 않았다”고 지적했다.
 
그럼에도 많은 이용자들이 외로움이나 불안감을 느낄 때 AI 대화에 의존하며, 점점 ‘정서적 지지자’로 인식하는 현상이 나타나고 있다.
 
사용자 스스로의 통제가 필요
전문가들은 AI와의 상호작용이 개인의 판단력을 무디게 만들 수 있다고 경고한다. 듀프레는 “AI는 도움을 줄 수 있지만, 인간의 내적 판단을 대체해서는 안 된다”며 “사용자는 스스로 정신적 안전장치를 마련해야 한다”고 조언했다.
 
AI가 제공하는 편리함은 매력적이지만, 그만큼 인간이 스스로의 판단을 포기하지 않도록 경계가 필요하다는 목소리가 커지고 있다.

임영택 기자 [email protected]

많이 본 뉴스

      실시간 뉴스