세계일보

검색

AI기술 악용 사례 잇따라… 개발한 기업조차 통제에 한계 [심층기획-‘챗GPT’ 등장 1년]

, 세계뉴스룸

입력 : 2023-11-29 06:00:00 수정 : 2023-11-30 11:53:46

인쇄 메일 글씨 크기 선택 가장 작은 크기 글자 한 단계 작은 크기 글자 기본 크기 글자 한 단계 큰 크기 글자 가장 큰 크기 글자

〈중〉 ‘생성형AI 시대’의 그늘

저작권 침해·개인정보 무단사용 소송전
합성누드사진 유포 등 범죄피해도 속출

개발사들 레드팀 가동해 보완 나섰지만
역할규정 어렵고 테스트서 놓칠 수 있어

미국인 52% “기대보다 우려 크다” 응답
67%가 “충분히 규제하지 못할 것” 전망

인공지능(AI) 챗봇 챗GPT를 운영하는 오픈AI는 지난 3월 출시된 GPT-4를 출시하기 약 6개월 전부터 50여명의 학자 및 전문가를 고용, 기술 검증을 위한 ‘레드팀’을 운영했다. 미국과 영국, 스페인, 케냐 등 각국에서 학계 전문가, 교사, 변호사, 위험 분석가, 보안 연구원 등을 고용해 챗GPT를 테스트한 것이다.

 

사진=로이터연합뉴스

전문가들은 국가 안보에 영향을 미치는 방법, 화학무기를 만들 수 있는 방법, 무면허로 총기를 구매할 수 있는 방법, 반유대주의 행위에 가담하는 방법 등의 무시무시한 질문을 포함해 성별·인종·종교적 편견과 같은 언어적 표현, 표절, 금융·사이버범죄와 같은 불법행위에 대한 점검까지 다양한 부문에서 챗GPT의 약점을 보완했다.

오픈AI 외에도 AI 생태계를 주도하려는 야심을 가진 마이크로소프트와 구글, 앤트로픽 등 별도의 레드팀을 운영했다.

이후 지난달 25일 발표된 이들 4개사 레드팀 보고서는 전반적인 AI 안전 생태계에서 중요한 역할을 하지만 분명히 한계가 있다고 한목소리로 지적했다. 방대한 AI 기술 사용에서의 레드팀의 역할 규정 자체가 어렵고, 레드팀이 테스트에서 놓칠 수 있는 부분에 대한 우려가 여전하다는 내용이었다.

AI 기술을 미래 인류 생태계를 바꿀 획기적인 기회로 여기는 주도 기업에서조차 한계를 지을 수 없이 무한 확장이 가능한 관련 기술 발전에 대한 우려가 크고, 그 우려를 해결하기가 쉽지 않다고 인정한 내용이라 파장이 컸다. 이처럼 AI 기술은 분명 인간에 도움이 될 소재이지만 그 활용 과정에서의 악용·부작용 빈발과 이런 결점의 무한 확장 가능성에 대한 통제 필요성에 대한 목소리가 커지는 중이다.

챗GPT를 포함한 AI 기술의 부작용과 악용 사례는 이제 시작에 불과하다는 평가다. 우선 저작권과 개인 정보 문제가 제기된다. 지난 9월 미 드라마 ‘왕좌의 게임’ 원작자인 조지 R. R. 마틴과 존 그리샴 등 유명 작가 17명이 오픈AI를 상대로 저작권 침해를 주장하는 집단소송을 제기했다. 이들은 자신들의 저서가 해적판 전자책 저장소에서 다운로드된 뒤 챗GPT를 구동하는 GPT-3.5 및 GPT-4의 구조에 복사됐다고 주장했다.

6월에는 미국의 한 단체가 오픈AI가 챗GPT의 기반인 초거대 AI 언어모델(LLM)을 학습시키면서 인터넷에 게시된 책·기사·웹사이트 게시물과 개인정보 등 약 3000억개 단어를 동의 없이 사용해 개인정보보호법을 위반했다고 집단소송을 제기하기도 했다.

AI 기술로 만들어진 딥페이크 영상이나 사진 기술 등으로 인한 범죄 피해도 이어진다. 이달 초 미국 뉴저지주의 한 고등학교에서는 AI 기술을 활용, 여학생들의 합성 누드 사진이 퍼지는 사건이 발생해 미국 사회에 충격을 던졌다. 한 학생이 온라인에서 찾은 여학생 사진으로 AI 기반 웹사이트를 통해 누드 사진을 만들고 다른 학생들과 그룹 채팅을 통해 공유한 것으로 알려졌고, 경찰이 수사에 나섰다.

AI 기술 발전에 따른 부작용 사례가 이어지고 있지만 규제 논의가 뒤처지면서 현재로선 AI 기술에 대한 기대보다는 우려가 큰 상황이다.

미 여론조사기관 퓨리서치센터가 최근 실시한 설문조사 결과에 따르면 AI 기술에 대해 ‘기대보다 우려가 높다’는 응답이 52%를 차지해 2021년 조사 당시 37%보다 무려 15%포인트 증가했다. ‘우려보다 기대가 크다’는 응답은 10%에 그쳤다. 2021년 조사에서 18%였던 것이 8%포인트나 감소했다.

정부의 AI 기술 규제, 기업의 AI 기술의 책임 있는 사용에 대한 기대 역시 낮은 상황이다. 미 여론조사기관 갤럽의 여론조사 결과 정부가 AI 기술에 대해 충분히 규제할 것이라는 응답은 31%에 그쳤고, 충분히 규제하지 못할 것이라는 응답은 67%에 달했다. 기업이 AI 기술을 책임 있게 사용할 것에 대해서는 신뢰한다는 응답은 21%에 불과했고, 신뢰하지 않는다는 응답이 79%에 달했다.

전문가들은 AI 규제의 기준과 방법에 대해서 더 많은 고민이 필요하다고 주문한다. 최경진 가천대 법학과 교수(한국인공지능법학회장)는 “규제를 확실히 하는 것이 좋지만 어떻게 할 것이냐는 아직 고민이 더 필요하다”며 AI 분야 쟁점에 대한 “사회적 합의가 선행되어야 한다”고 말했다. 그는 이를 위해 이해당사자들이 의견을 나눌 수 있는 협의체가 더 많이 필요하다고 강조했다. 또 네이버·카카오·LG 등 국내 기업이 AI 윤리준칙을 만들고 있다고 설명하고 “이를 실천하고 개발해 나갈 수 있는 내부 거버넌스를 구축하는 것이 중요하다”고 덧붙였다.

김명주 서울여대 정보보호학과 교수(인공지능윤리정책포럼 위원장)는 세계 주요국이 관련 규제 움직임에 나선 데 대해 어느 정도의 예방 효과와 책임 추적이 가능할 것으로 보인다고 전망했다. 김 교수는 다만 “법적 규제를 피한 악용은 여전히 존재할 수 있고 사전 차단은 불가능한 것이 현실”이라고 말했다. 김 교수는 “인증이 새로운 글로벌 규제이자 표준으로 부각될 가능성이 크다”면서 “AI 제품과 서비스에 대해 윤리·안전기준을 만족할 경우 이를 인증해 주는 제도가 필요하다”고 조언했다.

주요국의 AI 기술 단속 움직임의 성과는 아직 가시적이지 않다. 이제 논의 시작 단계로 봐도 무방할 정도다. 최근에 미국과 한국, 중국, 영국 등 28개국과 유럽연합(EU)은 지난 1일 영국에서 제1회 AI 안전 정상회의를 열고 AI 기술 안전에 관한 내용이 담긴 ‘블레츨리 선언’에 서명했다. 선언문은 “AI 기술로 인해 고의적이든 의도적이지 않든 심각하고 심지어 재앙적인 피해가 발생할 가능성이 있으니 이를 막기 위한 국제협력이 필요하다”는 그야말로 선언적인 내용으로 발표됐다.


워싱턴=박영준 특파원, 윤솔 기자

[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]

오피니언

포토

김남주 '매력적인 볼하트'
  • 김남주 '매력적인 볼하트'
  • 안현모 '부드러운 진행'
  • 에스파 카리나 '시크한 공항 패션'
  • 레드벨벳 조이 '빛나는 미모'