챗지피티(chatGPT) 등 초거대·생성형 인공지능 확산에 대응하여 인공지능 윤리와 신뢰성을 확보하기 위하여 과기정통부는 학계, 산업계, 법조계, 교육계 전문가와 함께 인공지능 윤리정책 포럼을 구성하여 관련된 사회적 논의를 본격적으로 시작한다.
과학기술정보통신부는 정보통신정책연구원(KISDI)과 한국정보통신기술협회(TTA)와 함께 7일 ‘제2기 인공지능 윤리정책 포럼’ 출범식을 개최했다고 밝혔다.
오늘 출범한 제2기 인공지능 윤리정책 포럼에서는 지난해 의견수렴을 거친 ‘인공지능 윤리기준 실천을 위한 자율점검표’ 및 ‘신뢰할 수 있는 인공지능 개발안내서’를 공개했고, 초거대·생성형 인공지능의 확산에 따라 거짓정보의 확산, 알고리즘의 편향성, 사생활 침해 등 부정적 영향에 대한 각종 우려가 제기되고 있는 상황에서 인공지능 윤리·신뢰성 확보를 위해 필요한 정책 방향에 관한 종합토론을 진행했다.
향후 지속적인 포럼을 통해 관련 기술 및 윤리 이슈에 대한 국내·외 동향을 살피고 윤리적이고 신뢰할 수 있는 초거대·생성형 인공지능이 개발·운영될 수 있도록 균형잡힌 시각에서 우리나라 인공지능 윤리정책 방향을 제시하고, 신뢰성 검·인증 체계 구축 등 주요 관련 정책과제에 대한 의견수렴을 진행해 나갈 계획이다.
포럼은 운영의 효율성과 논의의 전문성을 높이기 위해 3개의 전문분과위원회로 구성하여, ▲인공지능 윤리체계 확산의 '윤리분과', ▲인공지능 신뢰성 확보 기술 기반 마련의 '기술분과', ▲인공지능 리터러시 및 윤리교육 강화의 '교육분과' 등 큰 주제 안에서 세부적인 논의를 진행할 예정이다.
윤리분과는 초거대·생성형 인공지능의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의하고 ‘인공지능 윤리영향평가 프레임워크’ 개발에 대한 의견수렴을 진행할 계획이다.
기술분과는 초거대·생성형 인공지능의 위험요소 도출 및 신뢰성 확보를 위한 평가 데이터 구축과 기술 확보 방안 등 기술적인 쟁점을 논의하고, ‘인공지능 신뢰성 검·인증 체계’ 수립에 대한 의견을 수렴한다.
교육분과는 초거대·생성형 인공지능의 악의적 사용을 완화·방지하기 위한 윤리적 활용방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 인공지능 윤리교육 콘텐츠 개발에 대한 의견을 공유할 계획이다.
출범식에 참석한 과기정통부 엄열 인공지능기반정책관은 “초거대·생성형 인공지능이 산업과 우리 일상 속으로 빠르게 확산되고 있는 상황에서 무엇보다도 기술의 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행되어야 한다”고 강조하며, “제2기 인공지능 윤리정책 포럼이 인공지능 생태계에 속하는 다양한 이해관계자의 의견을 수렴하여 인공지능 윤리정책의 방향에 관한 사회적 합의를 마련하는데 기여하고, 인공지능 윤리와 신뢰성을 확산하여 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다.”고 당부했다.
소셜댓글