생성형 AI의 활용에 따른 개인의 업무 효율화와 이에 따른 조직의 생산성 향상은 세계적 화두로 등장하고 있다. 이는 정부를 비롯한 공공영역에도 영향을 미쳐 ‘AI 행정’이라는 새로운 개념으로 국정운영의 면모를 변화시키고 있다. 그러나 부적절한 생성형 AI 사용으로 인한 데이터 유출이 전체 보안 사고의 40% 이상이 될 것이라는 전망과 함께 이를 활용하는 조직들은 공사를 막론하고 생성형 AI의 활용과 그 과정에서 발생하는 중요 정보유출 등에 신경을 쓰고 있다. 우리나라의 행정안전부, 인사혁신처를 비롯한 정부 및 공공분야의 대응이 시작되고 있다. 다만, 생성형 AI를 사용하는 개인이 발생시키는 중요 정보유출을 판단하는 기준이나 어떠한 자료나 정보를 비밀로 다룰 것인가, 누가 책임을 질 것인가 와 같은 논의들은 제한적으로 이루어지고 있다. 생성형 AI 활용에 따른 비밀 유출시 사후 관리가 어렵다는 점에서 사전적 관리가 중요함에도 불구하고 이에 대한 연구는 부족한 편이다. 한편, 정보가 유출된 이후의 사후관리 또한 초보적 수준이다. 이에 이 연구는 오픈된 생성형 AI를 공공분야에 활용하면서 범할 수 있는 중요정보 유출에 대한 대응방안을 모색하고자, 중요정보의 유출과 관련한 비밀 엄수 의무 위반 사례들을 법적으로 분석하여 분석결과를 토대로 정책적 함의를 도출하고자 한다.
□ 주제어: 생성형 AI, 중요정보의 관리, 비밀 엄수 의무, 비밀 유출, 보안 관리, 적응형 보안