[중앙칼럼] AI 의료 조언, 편리한 위험
교통사고로 허리와 목을 다쳐 의사 권유로 디스크 주사를 맞았다. 그런데 몇 시간 뒤부터 얼굴이 화끈거리고 심장박동이 빨라졌다. 점심을 먹은 게 체한 거로 생각했는데 얼굴이 붉게 달아오르고 좀처럼 하지 않던 딸꾹질이 심하게 시작됐다. 병원에 연락하니 진료 시간이 끝났다는 안내와 함께 “급하면 응급실로 가라”는 메시지만 나왔다. 불안한 마음에 인공지능(AI) 챗봇에 주사 접종 내용과 증상에 관해 물었다. 챗봇은 “걱정이 많겠다”며 증상의 원인을 추정·분석해 답했다. 스테로이드 주사 또는 마취 주사 부작용 가능성을 언급했고, 대처 방법도 상세히 제시하며 “증상이 호전되지 않으면 바로 응급실로 가라”고도 했다. 챗봇이 알려준 대로 조리했더니 증상이 더 심해지지는 않았다. 다음날 병원에 연락해 의사와 온라인 진료를 한 결과 “마취 주사 부작용인 듯하다”는 진단을 받았고 “시간 지나면 증상은 완화될 것”이라는 말을 듣고 안심했다. 의사 진료 시간이 제한된 것과 달리 챗봇에는 언제든 무엇이든 물어볼 수 있었고, 의사가 알려준 내용과 챗봇이 제시한 정보가 상당 부분 일치해 놀랍기도 했다. 하지만 곧 의구심이 들었다. 과연 챗봇에 의료·건강 이슈에 대한 조언을 맡겨도 될까? 의료 분야에 등장한 AI 챗봇은 진단 보조, 상담, 건강정보 제공 등 다양한 역할을 맡고 있다. 하지만 최근 여러 보도에 따르면 이들 챗봇의 의료 조언이 오답이거나 위험한 방향으로 안내된 사례가 적지 않다. 뉴욕타임스는 ‘챗봇이 건강 상담에서 오차를 보이고 있다’는 제목의 보도를 통해 상담 내용이 의사가 권하지 않은 약물 복용을 제안했다거나, 증상을 과소평가했다는 사례를 소개했다. 뉴욕포스트도 챗봇을 통해 얻은 의료 조언을 그대로 따라 했다가 증상이 악화돼 문제가 된 사례들을 전했다. 이러한 실제 사례들은 챗봇의 의료적 판단과 책임 영역이 어디까지인가에 대한 경고음이다. 기술적으로 챗봇은 빅데이터와 언어모델(LLM)을 기반으로 수많은 의료 문헌과 상담 데이터를 학습해 답변을 생성한다. 하지만 그 학습 데이터는 환자의 개별 상태, 복합 질환, 병력, 약물 상호작용 등을 일일이 반영하지 못한다. 동일한 증상일지라도 체질·병력·환경이 다르면 최적의 답변이 아닐 수 있다는 뜻이다. 더구나 법적 규제도 아직 미비하다. 의료행위는 통상 국가 면허를 가진 의사가 책임지지만, 챗봇이 의료 조언을 제공하는 경우 책임의 주체가 불명확하다. 누군가 챗봇 조언을 따랐다가 피해를 봤을 때 구제 체계가 명확지 않다. 이에 따라 챗봇의 의료 상담 서비스에 대한 규제 및 가이드라인 마련을 요구하는 목소리가 커지고 있다. 대다수 챗봇 업체들도 “해당 답변은 참고용이라 전문가 진료를 대체하지 않는다”고 고지하고 있다. 가주보건의료재단이 지난 21일 발표한 설문 조사 결과에 따르면, 환자들은 AI 챗봇의 의료 활용에 대해 의외로 긍정적인 인식을 보였다. 전체 응답자의 72%가 “AI 챗봇으로부터 건강 조언을 받는 것에 개방적”이라고 답했으며, 특히 반복 질문 응대나 기본 건강정보 제공에 대한 수요가 컸다. 다만 이들은 의사가 최종 판단을 내리는 것을 선호했으며, AI는 ‘보조적 역할’로 한정돼야 한다는 응답이 지배적이었다. 이는 환자들이 효율성과 접근성은 환영하지만, 책임과 판단은 여전히 의료진에게 두기를 원한다는 방증이다. ‘닥터 챗봇’, ‘메디컬 챗봇’이라는 용어가 낯설지 않게 된 지금, 간과해서는 안 될 것이 있다. 챗봇의 조언은 참고일 뿐, 판단과 책임은 여전히 사람에게 있다는 점이다. 무엇보다 중요한 건 몸에 이상을 느낀다면 바로 전문 의료기관을 찾아 직접 상담해야 한다는 사실이다. 자신의 건강은 챗봇이 아닌, 본인이 책임져야 할 문제다. 챗봇이 유용한 도구일 수 있으나 치료의 주체가 될 수도, 삶의 무게를 대신 짊어질 수도 없다는 점을 명심해야 할 때다. 박낙희 / 경제부장중앙칼럼 의료 조언 의료 조언 의료 문헌과 의료 분야
2025.11.24. 19:04