국가정보원이 챗GPT 등 생성형 인공지능(AI) 기술을 안전하게 이용하려면 비공개 정보나 개인정보 등 민감한 내용을 입력해는 안된다고 권고했다.
국정원은 29일 이같은 내용을 담은 ‘챗GPT 등 생성형 AI 활용 보안 가이드라인’을 공개했다.
국정원은 필수 보안 수칙으로 ▲비공개·개인정보 등 민감 정보 입력 금지 ▲생성물에 대한 정확성·윤리성·적합성 등 재검증 ▲생성물 활용시 지적 재산권·저작권 등 법률 침해·위반여부 확인 ▲연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인 ▲로그인 계정에 대한 보안설정 강화 등을 제시했다.
앞서 국정원은 생성형 AI를 활용하는 과정에서 업무상 비밀과 개인정보가 유출되거나 가짜뉴스, 비윤리적 자료가 생성되는 등 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소와 함께 가이드라인 제정에 착수했다. 국정원은 가이드라인을 국내 420여개 국·공·사립대학 등에 배포하고 국가사이버안보센터 홈페이지에도 게재할 계획이다.
국정원 관계자는 “챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황”이라며 “보안 가이드라인으로 각급기관이 생성형 AI기술을 적극 활용할 수 있는 토대가 형성되길 기대한다”고 했다.
국정원은 29일 이같은 내용을 담은 ‘챗GPT 등 생성형 AI 활용 보안 가이드라인’을 공개했다.
국정원은 필수 보안 수칙으로 ▲비공개·개인정보 등 민감 정보 입력 금지 ▲생성물에 대한 정확성·윤리성·적합성 등 재검증 ▲생성물 활용시 지적 재산권·저작권 등 법률 침해·위반여부 확인 ▲연계·확장프로그램 사용시 보안 취약여부 등 안전성 확인 ▲로그인 계정에 대한 보안설정 강화 등을 제시했다.
국정원 관계자는 “챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황”이라며 “보안 가이드라인으로 각급기관이 생성형 AI기술을 적극 활용할 수 있는 토대가 형성되길 기대한다”고 했다.
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지