페이스북은 인종 편견이 자사 핵심 플랫폼인 페이스북과 인스타그램에 미치는 잠재적 영향을 조사하고 이를 해결하기 위한 새로운 팀을 꾸렸다고 21일(현지시간) 월스트리트저널(WSJ)이 보도했다.
이는 그동안 자사 플랫폼이 소수인종에 대한 편견과 차별을 조장하는 헤이트스피치(증오 발언)와 가짜 뉴스를 제대로 규제하지 않는다는 비판에도 행동에 나서기를 꺼렸던 것과 대조된다.
사정에 정통한 소식통에 따르면 인스타그램 내에 ‘평등과 포용 팀’이 새롭게 꾸려졌다. 이 팀은 회사의 머신러닝 등 인공지능(AI) 알고리즘이 흑인과 히스패닉, 기타 소수 인종에게 어떤 영향을 미치는지, 또 그 영향이 백인 사용자에게 미치는 영향과는 어떻게 다른지 등을 조사하게 된다.
인스타그램 담당자는 이런 움직임이 있다는 것을 인정하면서 페이스북도 비슷한 팀을 꾸리고 있다고 전했다.
비샬 샤흐 인스타그램 제품 대표는 “인종평등을 위한 움직임은 우리 회사에 있어서도 중대한 순간”이라며 “어떠한 편견도 모든 사람이 자신을 표현할 수 있는 플랫폼을 제공하겠다는 우리의 이상과 배치된다”고 설명했다.
페이스북은 인종 문제에 대한 자사 정책에 직원들의 불만이 커지고 광고주들마저 보이콧에 나서자 결국 행동에 나섰다고 WSJ는 평가했다.
알고리즘에 의해 표출되는 인종에 대한 편견을 포착하고 이를 교정하는 것은 IT 업체와 정부 모두에 커다란 과제로 떠올랐다. 특히 올해는 지난 5월 흑인 조지 플로이드가 백인 경찰에 의해 사망해 전 세계적으로 인종차별 항의 시위가 일어나면서 페이스북이 인종 편견에 대해 적극적으로 나서야 한다는 목소리가 커졌다.
지난해 7월 인스타그램은 계정 비활성화 정책을 변경했는데, 이는 알고리즘이 흑인이라고 판단한 사용자에 대한 계정 비활성화 가능성이 다른 사람보다 50% 더 높다는 내부 분석에 따른 것이라고 WSJ는 전했다.
또 전문가들은 페이스북의 알고리즘과 광고 경매 시스템이 흑인 사용자들이 특정 주택이나 구직에 대한 광고를 보지 못하도록 하는 등 인종차별적 요소가 있다고 분석했다.