개인정보보호위원회(이하 개인정보위)가 생성형 인공지능(AI) 서비스를 개발·활용하는 기업·기관을 위한 개인정보 안전 처리 기준을 마련했다. AI개발 사업자가 개인정보를 수집하는 과정에서 발생할 수 있는 프라이버시 침해 문제를 방지하기 위한 조치다. 개인정보위는 이 기준이 개인정보 보호법 적용의 불확실성을 해소하고, 관련 기업·기관의 법 준수 역량을 높이는 데 역할을 할 것으로 보고 있다.

개인정보위는 6일 서울 중구에 있는 정동 1928 아트센터에서 ‘생성형 인공지능과 프라이버시’ 오픈 세미나를 개최하고 ‘생성형 인공지능(AI) 개발·활용을 위한 개인정보 처리 안내서’를 공개했다. 안내서는 챗 GPT 등 상용 대규모언어모델(LLM) 서비스를 개발하거나 AI서비스를 제공하는 기업·기관이 활용할 수 있다.
안내서는 AI 시스템이 개발되는 유형에 따른 법적 기준과 안전성 확보 기준을 제시했다. 이와 관련, 개인정보보호책임자 (CPO) 중심의 거버넌스 구축 방안을 제시했다.
또 AI시스템이 실제로 개발·활용되는 방식과 맥락을 유형화하고, 각 유형에 따른 법적 기준와 안전성 확보 기준을 제시했다.
AI 에이전트, 지식증류, 머신 언러닝 등 생성형 AI 개발·활용과 관련한 최신 기술 동향과 연구 성과 등도 담았다.
안내서는 향후 국내외 개인정보 보호 정책 변화에 발맞춰 계속 업데이트될 예정이다.
개인정보위는 올 초부터 내부 검토와 외부 전문가 의견 수렴을 거쳐 안내서 초안을 마련하고 ‘AI 프라이버시 민·관 정책협의회’와 제16회 전체회의를 거쳐 공개본을 확정했다.
고학수 위원장은 “명확한 안내서를 통해 실무 현장의 법적 불확실성이 해소되고, 생성형 인공지능 개발·활용에 개인정보 보호 관점이 체계적으로 반영될 수 있을 것으로 기대된다”고 밝혔다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]