“AI챗봇 답변 엉성함 이해하면 오답 수정·신속한 작업 마무리 가능”
IT 학계·업계 일부, MS 의견에 “동의 못해…챗GPT, 쉽게 악용 가능”
“AI 챗봇 기술 적용 새 검색엔진들, 잘못된 정보 사실처럼 계속 제공”

인공지능(AI) 챗봇이 전 세계적으로 열풍을 일으키고 있지만, 오답 등으로 인한 우려도 적잖은 가운데 마이크로소프트(MS)가 “오답이 있더라도 유용하다”라고 주장하고 나서 눈길을 끈다.
그러나 정보통신(IT) 관련 학계와 업계 일각에서는 이 같은 MS의 의견에 동의하지 않고 있다. 이들은 “챗GPT가 쉽게 악용될 수 있다”면서 AI 챗봇 기술을 적용한 모든 새 검색엔진들이 잘못된 정보를 사실인 것처럼 제공하는 이른바 ‘환각 효과’를 계속 보이고 있다고 지적했다.
16일(현지시간) 미국 경제매체 CNBC의 보도에 따르면 MS는 이날 업무생산성 애플리케이션
‘MS 365’에 오픈 AI의 차세대 인공지능(AI) 대형언어모델(LLM)을 결합한 ‘MS 365 코파일럿’을 발표하면서 이 같이 밝혔다.
코파일럿(Copilot)은 ‘부조종사’라는 이름처럼 사람의 업무를 돕는다. 워드와 엑셀, 파워포인트, 아웃룩, 팀즈 등 MS 365 앱에 내장되며 대형언어모델 기반의 정교한 처리와 조정 역할을 한다.
MS는 “이용자가 코파일럿의 답변이 엉성할 수 있다는 것을 이해하고 있다면 오답을 수정해서 더 신속하게 이메일을 전송하거나 프레젠테이션을 마무리할 수 있다”라고 설명했다.
예를 들어 이용자가 가족 구성원의 생일축하 이메일을 만들고 싶다면 코파일럿이 잘못된 생일 날짜를 제시해도 여전히 유용할 수 있다는 뜻이다.

MS는 “문서를 생성한다는 것만으로도 시간을 절약할 수 있어 유용하고, 이용자는 이 같은 문서에 오류가 있는지 조금 더 주의를 기울이면 된다”라고 밝혔다.
하지만 학계와 업계 일각에서는 이 같은 MS의 의견에 동의하지 않고 있다.
미 벤틀리대 수학·데이터사이언스학과 노아 잔시라쿠사 교수와 뉴욕대 명예교수이자 머신러닝 스타트업 ‘지오메트릭 인텔리전스’ 창업자인 게리 마커스 등은 건강, 금융 등 중요한 주제에 대한 AI 챗봇들의 조언을 과도하게 신뢰하는 데 대해 우려의 목소리를 내고 있다.
이들은 최근 미 시사주간지 타임 기고문에서 챗GPT가 쉽게 악용될 수 있다면서 “이번 주 봤던 것처럼 모든 새 검색엔진들이 환각 효과(잘못된 정보를 사실인 것처럼 제공하는 것)를 계속 보이고 있다”고 지적했다.
또한 “중요한 것은 이들 대기업 중 누구라도 진정으로 신뢰할 수 있는 AI를 구축할 수 있는지 여부”라고 강조했다.

실제로 코파일럿을 얼마나 신뢰할 수 있을지도 불분명하다고 CNBC는 지적했다.
이와 관련해 MS의 수석 과학자 제이미 티반은 코파일럿이 잘못하거나 편견을 드러내거나 오용될 때 이를 완화할 방안들이 마련돼 있다며, 코파일럿이 제대로 작동하는지 파악하기 위해 우선 20개 기업에서만 시험적으로 사용되고 있다고 말했다.
CNBC는 MS가 생성형 AI 열풍을 무시하기에는 사업상 이해관계가 너무 크다면서 대중의 불신이 야기돼 회사 이미지에 재앙이 되지 않도록 이 기술을 잘 통합하는 게 필요하다고 덧붙였다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]