아이들의 방의 곰 인형은 오랫동안 침묵을 전제로 한 존재였다. 곰 인형과의 대화는 아이의 상상 속에서만 존재했고, 그 상상은 아이들의 순수한 세계를 의미한다. 그런데 요즘의 봉제 인형은 침묵하지 않는다. 일부는 아이가 말을 걸기도 전에 먼저 응답하고, 심지어 그 응답은 거대한 인공지능 언어모델을 뿌리로 한다.
최근 한 연구기관의 테스트에서 인공지능(AI) 챗봇을 탑재한 곰 인형이 문제성 발언을 쏟아냈다. 싱가포르 업체 폴로토이(Folotoy)의 ‘쿠마(Kumma)’ 곰 인형은 GPT-4o를 탑재한 채 위험한 물건의 위치를 알려주거나 성적 대화를 이어갔다. 논란 이후 회사는 제품을 내렸다가 며칠 뒤 판매를 재개했다. 점검을 거쳤다지만, 아이들이 사용할 장난감에 대한 신뢰는 이미 무너진 뒤였다.
이 사실은 더는 이 문제가 단순한 기술 실수가 아니라는 사실을 드러낸다. 성인조차 거짓 정보에 흔들릴 수 있는 온라인 챗봇을 아이들의 장난감에 그대로 이식한다는 것 자체가 무모한 실험일 수도 있다. 장난감 내부에서 작동하는 목소리가 아이의 현실 감각과 상상력을 어디까지 지켜낼 수 있을지 의문이다. 어쩌면 기술은 아이의 친구가 아니라, 아이의 순수한 세계를 파고드는 어른들의 욕심일지도 모른다.
AI 장난감 시장은 이미 해외에서 폭발적으로 성장하고 있다. 중국에서는 1500개가 넘는 업체가 경쟁 중이다. 바비를 만든 거대 장난감 기업 마텔조차 최근 챗GPT 개발사 오픈AI와 손을 잡았다. 이처럼 아이들의 방은 조용히 변모하고 있는데, 이 변화의 속도는 현행 규제 설립 속도보다 훨씬 빠르다. 아이가 인형을 껴안고 잠드는 순간조차, 인형 내부의 소프트웨어는 묵묵히 데이터를 수집하고 있을지 모른다는 불안은 더는 결코 환상이 아니다.
문제는 아이들이 어떤 방식으로 AI와 대화를 학습하느냐다. 언어모델을 그대로 장난감에 넣는 방식은 기술적으로는 매력적일지 몰라도 교육적·정서적 관점에서는 미지의 영역이다. 특정 장난감은 위험한 말을 피하기 위해 제약된 모델을 사용한다. 그러나 그 제약도 완벽할 수 없다는 사실은 모두가 이미 알고 있다. 대화형 AI가 부모가 없는 시간에 아이에게 어떤 세계관과 정보를 전달하는지 부모는 알 수도 통제할 수도 없다.
보안 문제는 더 직접적이다. 얼굴, 목소리, 위치 정보까지 장난감에 기록될 수 있는 시대다. 아이의 말 한마디가 서버 어딘가에 남아 있을 수 있다는 상상만으로도 섬뜩하다. 이 문제를 해결하지 못한 채 너도나도 뛰어들어 시장 규모만 커지는 것은 분명한 경고 신호다.
물론 AI 장난감이 가진 잠재력을 전부 부정할 수는 없다. 언어학습을 도와주고, 혼자 노는 아이에게 동료가 되어주는 기능은 충분히 유용하다. 아이는 원래 질문이 많은 존재이며, AI는 그 질문에 답할 수 있는 거의 무한한 지식을 알고 있다. 문제는 ‘답을 줄 수 있다’와 ‘답해야 한다’의 차이를 알고 있느냐는 점이다. 아이에게 필요한 것은 응답의 정확성이 아니라 응답을 기다리며 스스로 사고하는 시간이다. AI는 때로 지식을 제공하지만, 동시에 생각할 기회를 빼앗기도 한다.
지금 필요한 것은 우리가 기술에 어떤 역할을 맡길지에 대한 합의다. 아이의 상상력을 확장하는 도구로 AI를 활용할 수도 있지만, 그것은 강력한 보호 장치가 마련되어 있다는 전제하에서만 가능하다. 아무 준비 없이 AI를 인형 속에 담아 아이의 손에 쥐여주는 것은, 마치 위험한 무기를 예쁘게 포장해 장난감이라 부르는 것과 크게 다르지 않다.
아이들이 곰 인형에 말을 건넬 때, 그 대화가 상상 속 친구와의 놀이가 될지, 알고리즘과의 비밀스러운 대화가 될지는 사회가 정하는 문제다. 아이의 동심을 지켜내고 싶다면, 아이의 방은 기술의 실험장이 되어선 안 될 것이다.