일본 방위성이 인공지능(AI)을 활용한 무기의 연구·개발 관련 지침을 처음으로 내놨다.

8일 아사히신문 등에 따르면 방위성은 AI 드론 등을 개발할 때 ‘인간 책임을 명확히 한다’고 규정한 ‘AI 적용 가이드 라인’을 발표했다. 구체적으로는 연구·개발 대상이 ‘고위험’과 ‘저위험’으로 구분된다. 고위험은 AI가 대상을 특정해 바로 공격할 수 있는 경우를 말하며, 방위성이 법적·정책적 심사를 통해 허가 여부를 결정한다. 국제법·국내법 준수가 어려운 무기나 인간의 관여가 불가능한 ‘자율형 살상무기’(LAWS)는 개발이 원천 차단된다. 고위험 무기에 대해서는 별도 전문가 회의에서 △운용자의 관여가 가능한지 △오작동 방지 등 안전성은 마련됐는지 △AI 시스템의 검증 가능성과 투명성은 확보됐는지 기술적 심사도 이어진다. 심사 체계는 내년 이후 갖춰질 전망이다.
도쿄=유태영 특파원 anarchyn@segye.com
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]