일본 방위성이 인공지능(AI)을 활용한 무기의 연구·개발 관련 지침을 처음으로 내놨다.
8일 아사히신문 등에 따르면 방위성은 AI 드론 등을 개발할 때 ‘인간 책임을 명확히 한다’고 규정한 ‘AI 적용 가이드 라인’을 발표했다. 구체적으로는 연구·개발 대상이 ‘고위험’과 ‘저위험’으로 구분된다. 고위험은 AI가 대상을 특정해 바로 공격할 수 있는 경우를 말하며, 방위성이 법적·정책적 심사를 통해 허가 여부를 결정한다. 국제법·국내법 준수가 어려운 무기나 인간의 관여가 불가능한 ‘자율형 살상무기’(LAWS)는 개발이 원천 차단된다. 고위험 무기에 대해서는 별도 전문가 회의에서 △운용자의 관여가 가능한지 △오작동 방지 등 안전성은 마련됐는지 △AI 시스템의 검증 가능성과 투명성은 확보됐는지 기술적 심사도 이어진다. 심사 체계는 내년 이후 갖춰질 전망이다.
Copyright ⓒ 세계일보. 무단 전재 및 재배포 금지
![[설왕설래] 한·일 여권 없는 왕래](http://img.segye.com/content/image/2025/12/18/128/20251218518473.jpg
)
![[기자가만난세상] ‘강제 노역’ 서술 빠진 사도광산](http://img.segye.com/content/image/2025/12/18/128/20251218518441.jpg
)
![[세계와우리] 사라진 비핵화, 자강만이 살길이다](http://img.segye.com/content/image/2025/12/18/128/20251218518464.jpg
)
![[기후의 미래] 사라져야 새로워진다](http://img.segye.com/content/image/2025/12/18/128/20251218518446.jpg
)







