(뉴스인020 = 김나현 기자) 인공지능 시대에 AI 기업의 자율적인 프라이버시 위험관리를 지원하고, 생체인식기술의 안전한 활용 방안을 모색하기 위해 민관이 머리를 맞댄다.
개인정보보호위원회는 11월 22일 오전, 민간 전문가 및 관계부처 등이 참석한 가운데 'AI 프라이버시 민·관 정책협의회' 제3차 전체회의를 개최하고 '인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)', '생체인식정보 규율체계 개선(안)'에 대해 논의한다고 밝혔다.
먼저 '인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)'에 대한 논의가 시작된 것은, 최근 AI 기술이 기술적 혁신을 넘어 국민의 일상, 사회·경제 전반에 깊숙이 영향을 미침에 따라 AI 위험을 적정 관리해야 하고, 특히 AI 기술이 개인정보를 포함하는 대규모 데이터에 기초하고 있어 전통적 방식과는 다른 복잡한 데이터처리를 수반함에 따라 AI의 대표적 위험 중 하나로 프라이버시 위협이 대두되고 있기 때문이다.
이에 개인정보위는 AI 기업 등의 자율적인 프라이버시 위험관리를 지원하고자 '인공지능(AI) 프라이버시 리스크 평가·관리 모델(안)'을 준비해왔다. AI 기업 등은 동 모델을 자율적으로 참고하여 개별 AI 모델·서비스의 용례, 처리하는 데이터의 특성 등 구체적 맥락에 따라 보다 안전하고 책임감 있는 리스크 관리체계를 구축할 수 있다.
동 모델은 지난해 12월부터 정책협의회 2분과(리스크 평가 분과) 논의를 중심으로, 국내외 학계, 정부, 연구기관 등에서 논의되고 있는 AI 데이터처리 특성, 프라이버시 위험의 유형, AI 리스크 관리체계 등에 대한 종합적 검토를 토대로 마련됐다.
이번 전체회의에서는 동 모델 초안에 담긴 AI 프라이버시 리스크 평가의 절차, 리스크의 유형 및 리스크 경감 방안, 리스크 평가·관리 체계 등을 공유하고 의견을 수렴한다. 개인정보위는 이날 민간 전문가 및 관계부처 등에서 제시된 의견을 검토·반영하여 12월 중 '인공지능(AI) 프라이버시 리스크 평가·관리 모델' 최종안을 발표할 예정이다.
아울러, '생체인식정보 규율체계 개선(안)'에 대해서도 논의한다. 최근 얼굴·음성·지문 등 생체정보를 이용한 생체인식 기술(출입통제·금융결제·AI 음성비서 등)이 다양한 영역에서 활용되고 있으나, 생체인식정보는 그 자체로 개인식별이 가능하고 변경 불가능하여, 다른 정보에 비해 오·남용 및 유출에 따른 위험이 더 크다. 이에 따라 생체인식정보의 처리요건이 엄격하게 규율되어 있어 관련 기술 발전에 비해 활용에 제약이 있었다.
이에 개인정보위는 지난해부터 학계, 법조계, 산업계 전문가들로 구성된 연구반을 중심으로, 산업의 발전과 정보주체의 권리보호를 균형있게 고려하여 안전하게 생체인식정보 활용할 수 있는 방안을 마련해왔다. 이번 개선안에는 생체인식정보의 명확한 정의 규정, 합리적 처리요건, 공개된 장소에서 불특정 다수에 대한 실시간 얼굴인식 제한 규정 등을 반영했다. 이번 전체회의 논의를 통해 제시된 시민단체, 관계부처, 전문가들의 의견을 반영하여 생체인식정보의 합리적 규율체계(안) 역시 12월 중 마련할 계획이다.
박상철 서울대 교수(리스크 평가 분과장)는 “전세계적으로 빠르게 발전하는 AI 기술과 기존 개인정보보호 규제 간에 간극과 긴장이 발생하고 있어 대응이 필요한 시점이다.”라며, “국내외 정책, 연구 선례가 부족한 상황에서 각계 전문가와 함께 유연하고 체계적인 프라이버시 리스크 평가·관리체계를 제시했다는 점에서 의미가 있다.”라고 밝혔다.
배경훈 정책협의회 공동의장(LG AI연구원장)은 “개인정보 보호와 AI 기술 발전의 균형을 맞추고, 이해관계자의 합의에 이르는 것이 매우 중요하다.”라며, “이번에 제안된 'AI 프라이버시 리스크 평가·관리 모델'은 기업들이 자율적으로 위험 요소를 평가하고 관리하는 데에 있어 유용한 기준이 될 것이며, 특히 사용 목적에 따라 차별화된 리스크의 평가, 관리 방안이 제시됨으로써, 기업들에게는 실질적인 도움이 될 것으로 기대한다.”고 밝혔다.
고학수 개인정보위 위원장은 “기술의 사회적 편익과 위험이 복잡하게 얽혀있는 AI 환경에서는 구체적 맥락에 따라 프라이버시 리스크를 식별하고 관리하는 기업의 책임 있는 노력이 특히 강조된다.”라며, “개인정보위는 AI 기업 등이 잠재적 위협과 그로 인한 영향을 사전에 고려하는 리스크 기반 접근 방식(Risk-based approach)을 실천하면서 혁신 활동을 지속할 수 있도록 적극 지원하겠다.”라고 밝혔다.