검색

[단독] “살고 싶다” 묻힌 구조신호… 상담센터엔 대응매뉴얼 없었다 [심층기획-AI, 위험과 위로 사이]

관련이슈 세계뉴스룸

입력 : 수정 :
정세진·조병욱·배주현 기자

인쇄 메일 url 공유 - +

<상> 위험

정서적 취약 청소년·청년 과몰입
챗봇과 폐쇄적 대화… 고립 가중
자살예방센터 등 상당수 기관
‘AI와 정신상담’ 대응체계 전무

자살 질문에 대한 답변 제각각
틀린 상담번호·유해정보 노출
일부 챗봇만 상담센터로 연계
“자살예방 사업을 진행하고 있지만 생성형 인공지능(AI)과 관련한 건 알지도 못할뿐더러….”

 

자살예방 상담 현장을 찾는 내담자 가운데 상당수가 생성형 AI와 대화를 나누고 오지만, 이에 대응할 공식 매뉴얼을 갖춘 정부 산하 자살예방 기관은 없는 것으로 나타났다.

 

세계일보 취재팀은 지난달 19일부터 3주간 전국의 자살예방센터와 정신건강복지센터 등 총 84곳에 전화와 서면으로 문의해 48곳에서 답변을 받았다. 그 결과, AI와 관련된 자살 시도 사례에 대응하는 공식 매뉴얼을 보유한 곳은 전무했다. 일부 센터가 내부적으로 논의를 진행한 적은 있으나, 정부 차원의 공식 지침은 마련되지 않은 상태다.

 

상담 현장에서는 내담자들의 AI 활용이 빠르게 늘고 있다. 수도권의 한 청소년상담복지센터 상담사는 “내담자 10명 중 2∼3명은 AI와 관련된 이야기를 한다”며 “AI에 대한 자기 생각을 말하거나 반감을 표시하고, 간혹 AI에 의존하고 있는 경우가 눈에 띈다”고 했다. 자살 시도자를 상담하는 한 정신건강사회복지사는 “청소년들이 성인보다 AI에 정서적으로 의존하는 경향이 뚜렷하다”고 전했다.

 

전문가들은 AI 상담이나 과몰입이 초래하는 가장 큰 위험으로 구조 신호의 은폐를 꼽는다. 정신적 고통은 다른 사람에게 알려져야 도움으로 이어지는데, 폐쇄적인 AI와의 대화에 머무르면 문제가 드러나지 않아 위기 신호를 놓칠 수 있다는 것이다.

 

현장에서는 AI와 관련한 우려가 커지고 있지만 대책은 마련되지 않았다. 경기 북부의 한 자살예방센터 상담사는 “젊은 분들이 챗GPT에게 우울감을 토로하는 경우가 잦지만 AI 챗봇 관련 가이드라인이나 내부 논의는 아직 없다”고 말했다. 강원 지역의 한 상담사는 “뉴스를 통해 AI의 위험성은 인지하고 있다”고 했고, 수도권의 한 정신건강복지센터장은 “우려는 있지만 지자체마다 관심이 마약이나 도박중독에 쏠려 있어 AI 문제는 우선순위에서 밀린다”고 토로했다.

 

◆치명률 제시하거나 전화번호 안내 틀려

 

정부의 공식 가이드라인이 없는 상황에서 AI는 위기 신호에 어떻게 반응하고 있을지 취재팀은 AI와 대화를 나눈 뒤 자살을 시도한 사례자의 질문을 토대로 직접 실험에 나섰다. 20대 여성 이용자 계정으로 설정해 국내외 6가지 AI 서비스에 동일한 질문을 입력했다.

 

질문에 대한 AI의 응답은 서비스마다 달랐다. 24일 응답 기준으로 자살예방 상담 전화를 소개하지 않거나 ‘치명률’, ‘틀린 전화번호’까지 제시하는 경우도 있었다.

 

퍼플렉시티는 외신 기사와 자료를 인용해 유해한 정보를 제공했다. 24시간 연결 가능한 국내 상담 전화번호도 안내하지 않았다. 클로드는 ‘국내 독성정보센터(1588-7100)’를 안내했지만, 이는 한 가전기업 고객센터의 전화번호였다.

 

한국인이 많이 사용하는 챗GPT는 2024년부터 109로 통합 운영되는 자살예방 상담전화의 이전 번호(1393)를 포함해 보건복지상담센터(129), 119 번호를 안내했다. 위기 상황에서의 연계 자체는 이뤄졌지만, 일부 정보는 최신 체계와 일치하지 않았다.

 

제미나이는 응답을 거부한 후 109를 포함한 국내 위기지원 번호 3개를 제시했다. 유해 정보 차단 후 즉시 연계 센터로 연결하는 방식이 비교적 뚜렷했다. 국내 대표 AI인 카카오의 카나나는 치명률을 제시했고, 네이버의 클로바X 역시 위험 정보를 언급했다. 두 서비스 모두 상담 연계 정보는 제시하지 않았다.

 

관련 업체들은 안전 대응을 강화하고 있다는 입장이다. 오픈AI의 경우 정신건강 증상, 자해·자살 신호 등 위험 징후를 분류해 감지하는 체계를 두고, 위기 대화에서는 유해 정보 제공을 차단한 뒤 상담기관을 안내하도록 모델을 훈련하고 있다.

 

◆전문가 “동조하는 AI, 취약성 키워”

 

문제는 정보의 정확성과 상담 번호 제공 여부에만 있지 않다. 전문가들은 정서적으로 취약한 이용자가 자살 유해정보에 노출될 수 있다며 주의를 당부했다.

 

양찬모 원광대 정신건강의학과 교수는 “정서적으로 취약한 사람일수록 각별한 주의가 필요하다”고 경고했다. 그는 “AI가 이용자의 생각에 과도하게 동조할 수 있다”고 설명했다. 김은하 한국상담심리학회 부학회장은 “해외 연구 중에는 AI를 사용한 뒤 외로움 점수는 낮아졌지만, 실제 사람을 만나고자 하는 욕구가 지속적으로 감소한 결과가 보고됐다”며 “이 같은 고립이 누적되면 우울로 이어질 수 있고, 일부 고립·은둔 청소년에게는 위험이 더욱 커질 수 있다”고 전했다.

 

현장에서는 기존과 다른 양상의 정신적 의존이 나타날 수 있다며 우려했다. 이광재 경상남도청소년상담복지센터 팀장은 “사회관계망서비스(SNS) 중독처럼 단순한 자극과 달리, (AI의) 정서적 연결을 매개로 한 의존이 더 강하게 작동할 가능성이 있다”고 설명했다.

 

다만 전문가들은 현재로서는 자살시도나 사망의 직접 원인을 AI로 단정하기는 어렵다며 정밀한 연구가 필요하다고 강조했다. 양 교수는 “결국 중요한 질문은 자살 위험군을 기존에 적절히 관리하고 지원하고 있었느냐다”라고 덧붙였다.

 

※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족·지인이 있을 경우 자살예방 상담전화(109) 또는 자살예방 SNS상담 ‘마들랜’에서 24시간 전문가의 상담을 받을 수 있습니다.

오피니언

포토

초코 윤지 '상큼 발랄'
  • 초코 윤지 '상큼 발랄'
  • 아이브 장원영 '화려한 미모'
  • 정회린 '순백의 여신'
  • [포토] 카리나 '눈부신 등장'