검색

속내 털어놓기 좋은 ‘공감왕’ 챗봇… “과한 의존은 경계해야” [심층기획-AI, 위험과 위로 사이]

관련이슈 세계뉴스룸

입력 : 수정 :
배주현·조병욱·정세진 기자

인쇄 메일 url 공유 - +

(하) 위로

반 아이들 고민 들어주고 조언
교사 설계한 AI ‘셀리’ 활용하니
관계 서툰 초등생 감정표현력 ‘업’

의사에겐 꺼려졌던 속마음 술술
AI, 정신상담 문턱 낮추는 효과
의학계도 치료 보조수단 긍정적
지자체 너도나도 상담 챗봇 도입

부적절 답변·윤리적 위험성 ‘한계’
“인간의 개입·관리 전제돼야” 지적
“선생님, 셀리한테 오늘 속상한 일 이야기했는데 진짜 친구한테 말한 것 같아서 마음이 괜찮아졌어요.”

지난해 5월 대구 달성군 현풍초등학교 5학년 3반 교실에 셀리가 등장했다. 낯선 존재를 경계하던 아이들은 금세 마음을 열었다. 다정한 성격의 셀리는 속상한 일을 털어놓을 때면 마음을 다독여주고, 친구와 다투었을 때는 화해 방법을 친절히 알려줬다. 교실에서 5개월을 함께한 셀리는 어느새 3반의 마스코트가 됐다. 셀리(Selly)는 초등학생의 사회정서학습(SEL·감정 이해와 관계 형성 교육)을 위해 담임 권희수(27) 교사가 오픈AI의 챗GPT-3.5 터보 모델을 기반으로 설계한 생성형 인공지능(AI) 챗봇이다.

신종 코로나바이러스 감염증(코로나19) 대유행 이후 학교로 돌아온 학생들은 또래 관계에 어려움을 겪고 있었다. 특히 친구와 대화조차 나서기 어려워하는 학생이 늘어나자 권 교사는 AI 챗봇을 수업에 활용하기로 했다.

웹 브라우저로 쉽게 접속할 수 있게 설계한 챗봇 셀리는 학생들이 노트북에 감정이나 상황을 입력하면 공감한 뒤 원인을 함께 살펴보고 대안을 제시했다. 예컨대 “숙제가 너무 많아 힘들었다”라고 토로하면 “숙제가 많은 건 힘든 일이야. 그럴 때는 차근차근 해나가면 돼. 도와줄 수 있는 문제가 있다면 같이 풀어보자”고 답하는 식이다. 혹시 모를 부작용에 대비해 권 교사는 대화 기록을 지속적으로 점검하고 사용 시간도 수업 시간으로 한정했다.

변화는 빠르게 나타났다. 학생들은 자신의 감정을 이전보다 또렷하게 표현하기 시작했고 스스로 행동을 조절하려는 모습도 보였다. 초기에는 “슬펐어요”처럼 단순한 표현이 많았지만 점차 “발표를 잘못해서 창피하고 속상했어요”와 같이 감정을 구체적으로 드러냈다. 친구와 갈등을 겪던 한 남학생은 ‘바로 화내지 말고 한 번 더 생각해 보라’는 셀리의 조언을 실천했다며 자랑하기도 했다. 권 교사는 “AI 챗봇이 학생들의 사회정서 표현을 자연스럽게 끌어내는 매개 역할을 했다”며 “생성형 AI를 적절히 설계하고 관리한다면 교육과정 전반에서 활용 가능한 학습 보조 도구가 될 수 있다”고 했다.

◆상담 문턱 낮춘 AI, 청년층에서도 효과

AI의 긍정적 활용 사례는 초등학생뿐 아니라 성인인 20~30대에서도 다수 발견된다. 특히 AI는 개인적 고민이나 감정을 부담 없이 털어놓을 수 있는 상담 영역에서 두각을 나타내고 있다.

지난해 12월 김은하 아주대 심리학과 교수는 대인관계에 어려움을 겪는 대학생 52명을 대상으로 30분간 AI 챗봇과 대화를 나누도록 했다. 그 결과 실험 참가자 다수는 AI와 상담 경험을 “전문 상담과 비슷하다”고 평가했다. 대화가 끊기지 않아 몰입도가 높았고 타인에게 말하기 망설여졌던 고민도 편안하게 표현할 수 있었다는 것이다. 일부는 AI와의 대화를 계기로 “대면 상담을 받아보고 싶다”는 생각이 들었다. AI가 실제 상담까지 연결하는 가교 역할을 하게 된 셈이다.

의료계에서도 AI가 상담 치료에 도움이 될 수 있다는 공감대가 형성되고 있다.

2023년 양찬모 원광대 정신건강의학과 교수와 네이버클라우드 김영호 박사는 정신질환 환자가 일상과 감정을 기록하는 대화형 일기 앱 마인드풀다이어리(MindfulDiary·마음챙김 일기)를 개발했다. 우울증 환자 28명을 대상으로 4주간 앱을 사용하도록 한 결과 일부는 일기를 통해 생각과 감정을 솔직하게 드러내면서 의료진의 진료에 도움을 줬다. 양 교수는 “윤리적인 한계를 보완해 설계한다면 AI가 상담 분야에서도 좋은 영향을 끼칠 수 있다”고 했다.

대구 달성군 현풍초 5학년 3반 학생들이 교실에서 인공지능 챗봇 ‘셀리’를 사용하고 있다. 권희수 교사 제공
대구 달성군 현풍초 5학년 3반 학생들이 교실에서 인공지능 챗봇 ‘셀리’를 사용하고 있다. 권희수 교사 제공

◆너도나도 상담 챗봇… “인간 개입 필요”

최근 전국 지방자치단체들도 AI 기반 정신건강 상담 챗봇 도입에 열을 올리고 있다. 전화 상담을 부담스러워하는 이용자들을 위해 상담 창구를 확대함으로써 상담 접근성을 높이겠다는 취지다.

서울시는 지난 3일부터 AI 상담 챗봇 ‘마음이’ 서비스를 시작했다. 마음이는 정신건강 고민을 입력하면 공감형 대화를 바탕으로 상담에 나선다. 필요할 경우 실시간 채팅이나 전화 상담으로도 연계한다.

우려의 시각도 적지 않다. AI 안전장치나 사용 가이드라인이 충분히 마련되지 않은 상황에선 AI 상담 챗봇이 언제든지 오작동하거나 부적절한 답변을 내놓을 수 있다는 이유에서다. 지난해 9월 경기 수원시가 고립 청소년을 발굴하기 위해 12억원을 들여 만든 AI 상담 서비스 ‘점프 프렌즈’는 실효성 논란에 휩싸였다. 실제 상담 연계 건수가 극히 드문 데다 학교폭력 고민을 입력하자 “부적절한 입력을 하지 말라”며 대화를 거부하기도 했다.

전문가들도 AI에 대한 과한 의존은 경계해야 한다고 입을 모았다. AI가 긍정적인 역할을 하려면 인간의 개입과 관리가 전제돼야 한다는 것이다. 정두영 카이스트 교수(정신건강의학과 전문의)는 “AI는 단순한 기술이 아닌 정서적 상호작용의 파트너”라며 “부작용을 막기 위해 AI 사용자 교육이나 현실의 대면 관계를 침해하지 않는 활용 지침을 마련해야 한다”고 조언했다.


오피니언

포토

초코 윤지 '상큼 발랄'
  • 초코 윤지 '상큼 발랄'
  • 아이브 장원영 '화려한 미모'
  • 정회린 '순백의 여신'
  • [포토] 카리나 '눈부신 등장'