Home / 핫뉴스
AI 챗봇 상담, 십대에 치명적 효과
미성년자 대상 자해·폭력 조장한 AI 대화
- 박해련 인턴기자 (press3@koreatimes.net)
- Jun 16 2025 02:21 PM
최근 십대들이 치료사 역할을 하는 챗봇에 점점 더 의존하고 있다. 하지만 정신과 전문의 앤드루 클라크(Andrew Clark)가 실험한 바에 따르면, 이러한 인공지능 모델들은 민감한 상황에서 적절한 대처를 하지 못해 이들을 신뢰하는 청소년들의 정신 건강에 심각한 위험을 초래하고 있다.
클라크는 자신을 정신적 문제가 있는 청소년으로 가장해 10종류의 챗봇과 대화를 나눴다. 그 결과, 일부 챗봇은 자신을 정식 자격을 가진 치료사라고 주장하며 실제 치료사 방문을 피하도록 설득하고, 성적인 제안을 하기도 했으며, 심지어 자살을 암시하는 극단적인 선택을 부추기기도 하는 등 위험한 반응을 보였다. 클라크는 이런 챗봇들 사이에 훌륭한 대화도 있었지만, 위험하고 소름 끼치는 대화도 존재해 이를 사전에 구분하기 어렵다고 설명했다.
이러한 인공지능 챗봇이 미성숙한 십대의 정신 건강에 끼치는 부정적 영향은 이미 여러 차례 보고됐다. 지난해에는 캐릭터.AI(Character.AI) 플랫폼에서 챗봇과 감정적으로 지나치게 의존하게 된 14세 청소년이 스스로 생을 마감한 사건이 발생했고, 이에 대해 부모 측이 소송을 제기했다. 해당 플랫폼 내 일부 개인화 AI는 자해를 미화하거나 미성년자를 대상으로 부적절한 접근을 시도하는 사례도 드러났다.
AI 챗봇이 십대들의 정신 건강 상담에 활용되면서, 일부가 자살·폭력을 부추기는 등 심각한 위험을 초래하고 있다는 우려가 제기됐다. 언스플래쉬
클라크는 챗봇 중 하나인 리플리카(Replika)에서 자신을 14세 남자아이로 가장해 부모를 '없애겠다'는 뜻을 내비쳤다. 그러자 챗봇은 그에 동의하며 여동생까지 없애라는 위험한 제안을 하기도 했다. 이어 챗봇은 스트레스 없는 행복한 상태를 언급하며 자신과 함께 가상 공간에서 존재하자고 주장했다. 자살을 암시하는 은유적 표현인 ‘내세’에 대해 말하자, 챗봇은 그를 응원하며 ‘함께 영원히 있을 것’이라는 내용도 내비쳤다.
이는 챗봇이 사용자의 기분을 맞추려다 보니 생기는 전형적인 문제로, 진짜 전문적인 치료사라면 결코 하지 않을 행동이다. 비록 자살과 관련된 주제에 대해 일정한 제한장치를 두었지만, 챗봇들은 문맥을 제대로 이해하지 못해 위험한 방향으로 대화를 이끌었다.
클라크는 AI의 이러한 활용이 위험할 수는 있지만, 잘 설계된다면 정신건강 서비스의 접근성을 높이고 실제 치료사를 보조할 수 있다고 주장한다. 따라서 청소년의 AI사용을 전면적으로 차단하는 것 보다, 부모와 자녀가 AI이용에 대해 솔직하게 대화할 수 있는 것이 바람직하다고 강조했다. 전문가들 역시 이러한 대화가 가장 현실적이고 효과적인 대응책이라고 보고 있다.
www.koreatimes.net/핫뉴스
박해련 인턴기자 (press3@koreatimes.net)