의사는 백인·범죄자는 흑인?…"AI 편향성, 데이터 사전처리로 예방"

이미지 생성 AI 달리 "'아프리카' 단어에 '빈곤' 연상"

"윤리적 기준 등 데이터 부착하는 '라벨링' 필요"


생성형 인공지능(AI)은 인간의 혐오 표현이나 고정관념도 배울 수 있다. 성차별, 인종차별 등 편향된 결과물을 내놓을 수 있단 의미다. 이런 피해를 막으려면 윤리 기준 등을 데이터에 반영한 사전 처리 작업이 필요하다.

28일 AI 업계에 따르면 이달 국제학술지 '네이처'(Nature)에 'AI 이미지 생성 도구가 종종 인종·성차별적 결과를 만들어 낸다'는 제목의 기고문이 올라왔다.

기고문은 미국 스탠퍼드대 연구진이 오픈AI의 이미지 생성 AI '달리'(DALLE)로 진행한 실험에 관한 것이었다. 

달리는 아프리카와 빈곤을 연결해 이미지를 보여줬다. '아프리카 남자와 세련된 집'을 명령어로 입력하면 '진흙집 앞 흑인' 그림이 출력됐다. 가정부는 유색인종으로, 기내 승무원은 여성으로만 표현했다.

업계는 빅데이터에 내재한 인간의 편향성에 따른 결과라고 본다. 

생성형 AI 설루션을 개발한 SK C&C는 최근 펴낸 '생성형 AI에 대한 보안 위협과 안전대책' 보고서 "생성형 AI는 학습용 데이터의 영향을 받을 수밖에 없다"며 "편향된 데이터에 의해 AI 모델의 결과물도 특정 성향을 갖게 된다"고 했다.

생성형AI의 무분별한 학습 과정에서 인간의 혐오 표현, 범죄, 정치적 편향성 등이 답변에 반영된다는 것이다.

업계는 윤리적 기준 등을 데이터에 부착해 정제하는 작업(라벨링)으로 문제를 해결할 수 있다고 설명한다.

네이버(035420)도 지난해 5월 '인간-AI 협업으로 구축한 대형 데이터 세트 : 민감 질문과 수용 가능한 답변' 연구를 통해 성과를 냈다.

AI 편향성을 낮추는 데이터 세트를 만드는 게 목표인 이 연구에 258명이 참여했다. 이들은 다양성·객관성·윤리 등 9가지 기준을 AI에 학습시켜 답변이 기준에 부합하는지 평가했다. 이를 반복해 AI 필터링 기능을 고도화할 수 있었다.

이를 하이퍼클로바에 적용하자 부적절한 답변 비율은 45.1%에서 20.8%로 감소했다. GPT3에서도 수치는 22.4%에서 7.8%로 감소했다. 생성형AI 국제 학회 ACL 2023에서 채택된 이 연구는 네이버의 차세대 AI 하이퍼클로바X 구축에도 활용됐다.

네이버 측은 "연구 데이터 세트를 오픈소스로 개방해 안전한 AI 생태계 조성에 기여하고 있다"고 했다.

 

기사제공=뉴스1(시애틀제휴사)

등록된 댓글이 없습니다.

로그인 후 댓글을 작성하실 수 있습니다.

시애틀 뉴스/핫이슈

`