[AI요약] 현재 다양한 기업들이 채용을 위해 활용하고 있는 AI가 공정하지 않으며 편향적인 결정을 할수 있다는 우려가 제기됐다. 실제로 AI를 채용 프로세스로 활용한 아마존 등 일부 기업들에 AI차별 문제가 불거져 해당 시스템을 폐기하거나 알고리즘에서 시각적 분석을 사용하지 않은 사례가 나오고 있다.
다양한 채용 프로세스에 활용되고 있는 AI의 공정성 문제에 대해 야후파이낸스, CNBC 등 외신이 24일(현지시간) 보도했다.
AI는 이제 채용에서도 중요한 역할을 하고 있다. 일부 고용주는 AI 도구를 사용한 기술 및 성격 평가를 통해 구직자의 자질을 평가하고 업무 역할과 일치하는지 판단하고 있다. 또 다른 경우는 AI를 사용해 구직자를 선별하고 면접 단계에 도달할 사람과 그렇지 않을 사람을 결정하기도 한다.
그러나 이러한 도구가 채용 프로세스를 더 빠르고 원활하게 만드는 것처럼 보이지만 채용에서 AI에 너무 많이 의존할 경우 공정한 채용 관행을 약화시키고 차별을 악화시키는 등 큰 문제로 이어질수 있다는 지적이 나오고 있다.
그렇다면 지금까지 공개된 채용과 관련 AI의 실적은 어떨까. 2018년 아마존은 AI를 사용해 적합한 구직자를 평가하는 실험적인 채용 도구를 폐기해야 했다. 이 도구를 훈련하는 데 사용된 고용 데이터가 남성 지배적이었으며, 이에 AI가 남성 후보자를 선호한 반면 여성은 적합하지 않은 후보로 간주한 것으로 밝혀졌기 때문이다.
비디오면접 소프트웨어 하이어뷰(HireVue)가 만든 또다른 인기 있는 AI도구는 2020년 미국의 저명한 시민권 단체의 반발에 직면한 후 평가 모델에서 시각적 분석을 폐기해야 했다.
린지 줄로아가 하이어뷰의 수석 데이터 과학자는 “평가 모델의 목표는 지원자의 인터뷰를 특정 역할에서 수행하는 방법과 연관시키는 것이며 지속적으로 검증되고 테스트 됐다”고 당시 성명서를 통해 해명했다. 그러나 기업은 연구 결과를 통해 사전 고용 알고리즘에서 시각적 분석을 사용하지 않기로 결정했다.
미국국립경제조사국의 연구에 따르면 포춘지 선정 500대 기업 중 108곳의 신입 채용 공고에 83000건의 가짜 지원서가 제출됐다. 이는 에보니, 다넬, 하킴과 같은 독특한 흑인 이름이 있는 지원서는 헤더, 브레들리와 같은 백인 이름에 비해 고용주로부터 응답을 받을 가능성이 적기 때문이다.
AI 알고리즘은 주어진 데이터와 수신하는 프로그래밍만큼만 우수해지며, 알고리즘은 현실 세계의 편향을 재생산하기 쉽다. 따라서 데이터에 결함이 있거나 이미 편향의 추세를 보이고 있다면, 출력 데이터는 이러한 편향을 영속화할 가능성이 높다.
현재 다양한 연구에 따르면 AI는 성별, 연령, 인종, 장애인, 변증법 또는 지역적 언어 차이에 대한 편견을 지속시키는 것으로 지적된다. 또다른 문제는 여성은 종종 이력서에서 자신의 기술을 과소평가하는 반면, 남성은 이력서를 과장하는 것으로 나타났다. 따라서 이러한 이력서는 실제 관련 기술과 경험에 관계없이 알고리즘을 통해 판단될수 있다.
물론 AI를 주의해서 사용하면 채용 프로세스를 보다 간단하게 만들 수 있으며, 이를 통해 채용 담당자는 지원자를 신속하게 선별하고 기술을 식별할 수 있다. 그러나 AI도 인간과 마찬가지로 불공평한 판단과 편향된 결정을 할수 있다는 점이다.
샬롯 샬러 경영컨설팅업체 에이온 책임자는 “AI가 사람들에게 시스템을 속일수 있는 기회를 제공한다”며 “후보 데이터의 정확성과 신뢰성을 검증하는 시스템을 구현하는 것이 핵심”이라고 강조했다.
그는 “채용에 있어 하나의 평가 방법에만 의존하는 것이 아닌, 임의의 추가 테스트를 통해 AI 편견을 줄이고 채용 프로세스를 간소화는 것이 도움이 될수 있다”며 “그러나 가장 중요한 것은 인간의 판단과 전문성의 개입”이라고 설명했다.
소셜댓글