지자체·교육부 등과 협조해 420여개 국·공·사립대학에 배포
보안 가이드라인, 국가사이버안보센터 홈페이지에도 게재
[더팩트ㅣ허주열 기자] 국가정보원이 29일 '챗GPT 등 생성형 AI(인공지능) 활용 보안 가이드라인'을 공개했다. 챗GPT 관련 보안 문제를 사전에 예방하기 위한 조치다.
국정원이 마련한 보안 가이드라인에는 생성형 AI 기술과 관련한 △개요 및 해외동향(챗GPT 사례 중심) △보안 위협 사례 △기술 사용 가이드라인 △국가·공공기관의 정보화 사업 구축 방안 및 보안 대책 등이 담겼다.
국정원은 생성형 AI 기술을 안전하게 이용하기 위한 필수 보안 수칙으로 △비공개·개인정보 등 민감 정보 입력 금지 △생성물에 대한 정확성·윤리성·적합성 등 재검증 △생성물 활용 시 지적 재산권·저작권 등 법률 침해·위반 여부 확인 △연계·확장프로그램 사용 시 보안 취약 여부 등 안전성 확인 △로그인 계정에 대한 보안 설정 강화 등을 제시했다.
국정원은 챗GPT 등 생성형 AI 기술 활용 과정에서 '업무상 비밀·개인정보 유출', '가짜뉴스·비윤리적 자료 생성' 등 기술 악용 우려가 제기되자, 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수했다.
국정원 관계자는 "챗GPT 등이 각광을 받으면서 여러 공공기관이 해당 기술을 활용하려고 했지만, 정부 차원의 보안 대책이 없어 기술도입이 어려운 상황이었다"며 "국정원은 국가 사이버안보 정책을 수립·시행하는 기관으로서 이번 보안 가이드라인을 마련해 각급기관이 생성형 AI 기술을 적극 활용할 수 있는 기반을 마련했다"고 설명했다.
국정원은 국가 공공기관과 지자체 외에 교육부와 협조해 이번 보안 가이드라인을 국내 420여 개 국·공·사립대학 등에 배포할 계획이다. 아울러 일반 국민도 참고할 수 있도록 국정원 국가사이버안보센터 홈페이지에도 게재했다.
국정원 관계자는 "보안 가이드라인 준수를 통한 보안 사고 없는 적극적인 AI 기술 활용을 기대한다"며 "공공분야를 비롯한 대한민국 전역에서 AI 등 IT 신기술이 안전하게 사용될 수 있도록 지속적으로 노력하겠다"고 밝혔다.
sense83@tf.co.kr
- 발로 뛰는 <더팩트>는 24시간 여러분의 제보를 기다립니다.
- ▶카카오톡: '더팩트제보' 검색
- ▶이메일: jebo@tf.co.kr
- ▶뉴스 홈페이지: http://talk.tf.co.kr/bbs/report/write
- - 네이버 메인 더팩트 구독하고 [특종보자▶]
- - 그곳이 알고싶냐? [영상보기▶]