578 읽음
AI ‘젠더 편향’에 원민경 장관 “차별 정당화 도구로 변질될 가능성”
미디어오늘
0
원민경 성평등가족부 장관이 인공지능(AI) 알고리즘의 젠더 편향 문제를 지적하며, 편향된 데이터 학습이 사회적 차별을 정당화하는 도구로 변질될 수 있다고 우려했다. 또한 AI 발전이 불평등으로 이어지지 않도록 정부 차원의 점검을 강화하겠다고 밝혔다.

원민경 성평등가족부 장관은 지난 20일 자신의 X에 이날 보도된 한국일보 기사 「남성 데이터 치중…남편 신용 더 높고 여성 지원자 감점」 제목을 공유하고 “한국일보 기사에서 AI 알고리즘 편향성 문제가 다시 한 번 제기되었다”며 “AI는 데이터 학습과정에서 기존의 편향된 데이터를 그대로 학습해 사회적 차별을 정당화하는 도구로 변질될 가능성이 있다”고 지적했다. 이어 “AI 발전이 우리 사회의 불평등으로 이어지지 않도록 꼼꼼히 살피겠다”고 덧붙였다.

해당 보도는 챗GPT가 기업 CEO나 의사를 그려달라고 할 땐 남성으로 그리고 간호사를 그려달라고 할 땐 여성으로 그리는 등의 편견을 넘어, 신용 AI 평가나 이력서 심사와 승진, 복지 대상자 선발에서도 성별 불이익을 준 사례가 있었다는 점을 지적했다. 2019년 미국 애플과 골드만 삭스가 제휴해 출시한 ‘애플 카드’의 성차별 의혹이 대표적인데 자산이 같은 부부임에도 남편에게 한도가 20배 높은 평가를 내린 적 있다. 아마존 역시 2018년 도입했다가 폐기한 AI 채용에서 AI가 이력서에 여성 동아리나 여대를 졸업해 여성임을 인지할 수 있는 단어를 발견한 경우 점수를 깎은 사례가 드러났다.
원민경 장관은 이 보도를 공유하며 “세상을 바꾸는 기술 AI가 우리 삶 깊숙이 들어와 있는데 AI의 알고리즘 편향성은 우리가 반드시 해결해야 할 숙제”라며 “AI 데이터 학습 과정에서 기존의 편향된 데이터를 그대로 학습하고 발전할 위험이 있다”고 전했다. 이어 “기술은 사람을 향해야 하며, 그 과정에서 누구도 소외되거나 차별받아서는 안된다”라며 “AI가 우리 사회의 포용적 성장을 돕는 도구가 될 수 있도록 앞장 서겠다”라고 밝혔다.

성평등가족부 역시 지난 6일 ‘AI 성평등 전략 포럼’에서 젠더 편향을 해소하기 위한 기술적인 해법을 논의한 바 있다. 이 포럼에서 전문가들은 AI 개발과 배포 단계에서 성별 균형을 검증하고 편향적 AI로 인한 피해자 구제 방안을 마련하는 제도가 뒷받침되어야 한다고 밝혔다. 이날 포럼에서는 이같은 차별이 여성뿐 아니라 데이터에 잘 잡히지 않는 연력, 지역, 학력 등에서 대표성이 없는 비전형 경로자에게 차별을 공고화시킬 수 있다고 지적됐다.
0 / 300