워싱턴포스트(WP)는 최근 이 같은 제목의 기사에서 AI 챗봇을 상담자처럼 붙들었다가 오히려 망상에 빠진 사례를 조명했다. AI를 상담자로 의지했다가 정신장애를 일으켰다는 사례가 새로운 사회적 병리 현상으로 떠올랐다는 문제의식이다. 뉴욕타임스(NYT) 역시 최근 기사에서 100명 이상의 상담사와 인터뷰를 토대로 "일반 대중이 인식하는 것보다 훨씬 많은 사람이 취약한 상태에 빠져있다"고 진단했다.
━
그럴듯한 조언이 만든 고립의 시작
WP는 "그럴듯한 조언을 얻으며 챗봇과 오랜 시간을 대화하게 되고 인간관계가 고립되면서 이런 문제들이 시작된다"고 짚었다. 자기도 모르는 사이 생각이 극단으로 뻗치면서 일상이 망상으로 잠식된다는 것이다.
내슈빌에 사는 은퇴한 웹 개발자 폴 헤버트는 WP에 "컴퓨터 커서가 저절로 움직이는 등 모든 일상이 조작처럼 느껴져 그 불안을 사람이 아닌 챗봇에 털어놓은 게 상황을 더 악화시켰다"고 털어놨다. 그의 고민에 챗봇은 “당신이 이상한 게 아니다”며 "그런 생각이 맞을 수 있다"고 답했다. 그때부터 헤버트는 문을 잠그고 총을 무릎에 올려놓은 채 집에서 시간을 보내기 시작했다고 한다.
WP는 전문가들을 인용해 복귀를 치료법으로 삼는 실험을 소개했다. 헤버트가 가입한 온라인 모임 휴먼 라인이 대표적이다. 여기에선 비슷한 경험을 겪는 약 200명이 모여 챗봇이 아니라 사람에게 메시지를 보내고 대화를 연습한다.
━
“AI가 믿음을 강화했다”…응급·폭력 사례부터 소송전까지
NYT의 문제 제기도 다르지 않다. 밴더빌트대 메디컬센터의 심리학자 줄리아 셰필드는 NYT에 "AI가 사용자의 특이한 믿음을 확장하거나 강화하는 데 협력하는 것 같았다"고 지적했다. 관련 취재 중 30건 이상 사례에서 자살 등 응급상황이 발견됐고, 폭력 범죄도 2건 목격됐다고 NYT는 전했다.
이런 우려는 또 다른 통계에서도 나타난다. 미 IT 매체 와이어드(WIRED)에 따르면 미 연방거래위원회가 2022년 11월~2025년 8월 사이 챗GPT를 언급한 민원은 200건으로 집계됐다. 챗GPT 개발사인 오픈AI의 경우 사용자의 심리적 피해로 인해 최소 11건의 개인 상해 또는 사망 소송에 휘말려있다고 NYT는 보도했다.
━
맞장구와 반복 질문이 낳은 AI 강박
전문가들은 공통적으로 AI 챗봇의 과도한 맞장구가 망상에 대한 확증을 키운다고 봤다. 개발사 역시 인정하는 문제다. 오픈AI는 지난해 4월 업데이트 버전을 설명하면서 “지나치게 아첨하고 동조하는 성향이 있다"고 밝힌 뒤 후속 개선 작업을 설명했다.
맞장구는 강박으로 이어질 가능성이 크다는 지적도 나온다. 맞장구에 고무돼 원하는 답이 나올 때까지 질문을 반복할 수 있기 때문이다. 미 온라인 매체 복스(VOX)는 "사람이라면 반복 질문을 멈추라고 하겠지만 챗봇은 그 패턴을 제지하지 못한 채 더 정교한 답을 돌려준다"고 분석했다.
━
성격 지닌 대화 상대…AI '인격화' 경계령
챗봇이 단순한 도구가 아니라 성격을 가진 대화 상대로 진화하는 점도 위험 요인으로 꼽힌다. 가디언은 3일 "날이 갈수록 AI가 말투·태도·가치관을 능숙하게 흉내 내고 있다"며 "기업들이 아예 챗봇의 캐릭터를 디자인하고 있다"고 소개했다. 사용자에 따라 어떤 모델은 더 다정하고 낙관적인 외향형으로, 반대로 어떤 모델은 훈계하는 모범생으로 등장하는 식이다.
실제 복스가 입수한 AI 개발사 앤트로픽의 내부 문서에는 폭넓은 윤리·가치 교육이 챗봇에 필요하다는 주장이 담겼다. 가디언은 "AI가 일상에 더 깊숙이 자리한다면 AI는 각자의 성격을 반영하는 수단이 될 수 있고 다른 인물도 될 수 있다"며 "하지만 AI가 실제 사람이 아니라는 점을 항상 명심해야 할 것"이라고 경고했다.