[AI 요약] 네이버가 공개한 ' 네이버 AI 윤리 준칙'은 AI에 대한 사회적 요구와 기업 철학을 반영했다. 스 캐터랩 내 구성원의 혐오와 차별 발언, 개인정보 유출 논란 등으로 운영이 중단됐지만, 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 한다는 데 초점이 맞춰져 있다.
네이버가 AI 윤리 준칙을 공개했다.
이번 '네이버 AI 윤리 준칙'은서울대 AI 정책 이니셔티브가 공동으로 2018년 이래 협업한 결과물이다. AI에 대한 사회적 요구와 기업 철학을 반영했다.
이루다의 후폭풍 때문일까? 발빠른 움직임이다. 스캐터랩은 지난 1월 AI 챗봇 '이루다'를 개발해 출시했다.
그러나 스캐터랩 내 구성원의 혐오와 차별 발언, 학습 데이터 내 개인정보 유출 논란까지 겹쳐 운영이 중단됐다.
이를 반영하듯, 네이버의 윤리 준칙 역시 네이버의 모든 구성원이 AI 개발과 이용에 있어 준수해야 한다는 데 초점이 맞춰졌다.
네이버의 AI윤리 준칙은 다음과 같다.
1. 사람을 위한 AI 개발
2. 다양성의 존중
3. 합리적인 설명과 편리성의 조화
4. 안전을 고려한 서비스 설계
5. 프라이버시 보호와 정보 보안
아울러 실천 방안으로, 사내 커뮤니케이션 채널을 마련하는 한편, 프로세스 리포트의 발간 및 연관 스타트업 지원 등을 이어가겠다고 전했다.
송대섭 네이버 책임리더는 “앞으로도 학계와 계속 협업하고, 현장에서의 적용 사례를 축적하며, 지속적으로 실천 가능한 방향으로 준칙을 더욱 구체화하고 개선해나갈 것”이라고 말했다.
<네이버 AI 윤리 준칙(NAVER Artificial Intelligence Ethics Principles) 전문 요약>
1. 사람을 위한 AI 개발
- 네이버의 AI는 사람을 위한 일상의 도구로, 개발과 이용에 있어 인간 중심 가치 최우선에 두겠음.
- AI가 완벽할 수 없음을 인식하고, 지속적으로 살펴보며 개선할 것
2. 다양성의 존중
- AI가 사용자는 물론 모든 사람에게 부당한 차별을 하지 않도록 개발하겠음.
- 네이버 AI 서비스로 다양한 가치가 공존하는 경험과 기회를 제공하겠음.
3. 합리적인 설명과 편리성의 조화
- AI가 활용될 경우, 사용자에게 AI에 대한 합리적인 설명에 최선을 다할 것임.
- AI는 기술을 위한 기술이 아니며, 활용 가능한 도구가 되도록 사용자의 눈높이에서 설명하겠음.
4. 안전 고려한 서비스 설계
- 네이버는 AI 서비스 전 과정에서 사람에게 유해하지 않도록 설계하겠음.
- 안전을 고려해 설계하고, 테스트하며, 배포 이후에도 지속적으로 안전을 관리하겠음.
5. 프라이버시와 정보 보안
- 네이버는 AI의 개발 및 이용 과정에 있어, 개인정보 보호에 대한 법적 책임과 의무를 다하겠음.
- 나아가 서비스 중 정보 보안 우려 상황을 원천적으로 차단한 설계를 적용하겠음.