UPDATED. 2024-03-29 17:50 (금)
디지털 시대 신질서, AI 젠더 편향에서 벗어나야
디지털 시대 신질서, AI 젠더 편향에서 벗어나야
  • 이혜숙
  • 승인 2023.04.12 08:59
  • 댓글 0
이 기사를 공유합니다

한국과학기술젠더혁신센터·교수신문 공동기획_ 젠더혁신, 연구와 삶을 바꾸다③ 인공지능(AI)과 젠더혁신

최근 과학기술 연구에서 성별 편향을 줄이는 젠더혁신에 대한 관심이 커지고 있다. 생물학적인 성(sex)과 사회문화적인 젠더(gender)의 차이를 인식해야 한다는 것이다. 의생명 분야는 물론 최근에는 인공지능(AI)과 데이터를 활용하는 과학기술·산업현장·생태계 등에서도 젠더혁신이 주목받고 있다. 교수신문은 한국과학기술젠더혁신센터(GISTeR, 소장 이혜숙)와 공동으로 총 5회에 걸쳐 과학기술과 산업현장 등에서 젠더혁신의 중요성과 동향, 앞으로의 과제를 조명해보는 연재를 마련했다.

① 기초 뇌과학과 젠더혁신
② 임상의학과 젠더혁신
③ 인공지능(AI)과 젠더혁신
④ 산업현장과 젠더혁신
⑤ 지속가능발전과 젠더혁신

 

지난해 11월 출시된 챗GPT가 글로벌 핫이슈다. 기존 AI보다 진일보한 대화 능력으로 영화 시나리오 작성은 물론 전문적인 로스쿨 시험과 의사면허 시험까지 통과하며 AI 시대의 새 지평을 열었다는 평이다. 학생들이 챗GPT로 쓴 연구보고서를 어떻게 평가할 것인지 고심하고 있지만 한편에서는 이미 챗GPT가 저자로 등장해 4편의 논문이 출판된 것을 보면 향후 시사하는 바가 크다.

챗GPT 만이 아니다. 기계번역과 음성인식, 자율주행 등 다양한 AI 기술도 빠르게 확산·활용되고 있다. 질병 진단과 건강관리를 돕는 AI 의사와 법률자문에 나선 AI 변호사, 최적의 패턴을 읽고 예측하는 AI 트레이더는 효율성과 편의성을 높인 전문서비스를 제공한다. 
 
인공지능이 가치중립적이라는 오해

하지만 이면에서는 AI 알고리즘이 사회적 편향을 확산하는 사례가 계속 보고됨에 따라 젠더혁신을 통해 공정한 AI 개발을 추진하자는 논의도 활발하다. 출발은 AI 젠더혁신이 여성을 위한 것만이 아니라 남성과 여성 모두를 위한 방향이라는 인식과 공감대 형성이다.  

전 세계가 코로나19 직격탄을 맞은 2019년, 영국의 디지털원격의료 전문기업 바빌론 헬스는 AI 기반 건강 챗봇을 출시하며 병원을 찾기 힘든 환자들에게 희소식을 전했다. 하지만 영국심장재단이 가상의 59세 남녀 흡연자 두 명을 비교 테스트한 결과 젠더 편향성이 확인됐다.

성별을 제외하면 음주 등 생활 습관, 팔의 저림과 갑작스러운 흉통 및 메스꺼움을 호소하는 증상이 동일했지만, 남성의 경우 심장마비 가능성이 있다고 진단하여 응급실을 찾도록 권고한 반면, 여성에게는 우울증이나 공황발작에 따른 증상으로 진단을 내리고 가정의를 만나라고 조언한 것이다. 이는 AI가 심장질환을 남성질환으로 간주하여 과거 여성 심장질환 진단이 제대로 이루어지지 않은 임상데이터로 학습한 결과이다.

데이터의 ‘젠더 편향’ 극복해야

이건명 충북대 교수(소프트웨어학과)에 따르면, 사람들은 AI가 데이터에 기반하여 편견 없는 의사결정을 하는 것으로 인식한다. 인간이라면 누구나 무의식적으로 가질 수 있는 편향과 주관성을 배제하고 가치중립적인 판단을 통해 채용과 승진 평가 등에서 공정성과 객관성을 확보하는 대안으로 AI를 제시했지만 결과는 기대와 달랐다.

아마존이 2017년 채용 AI를 도입했다 폐기한 사례가 대표적이다. 채용 AI 개발에 사용한 학습용 데이터 대부분이 남성 구직자의 지원서였고, 이를 기반으로 학습한 AI는 남성 우호적 경향을 보였다. 미국 법원이 범죄자의 재범 가능성 예측에 사용해온 AI 컴퍼스(COMPAS)는 백인의 재범률은 실제보다 낮게, 흑인의 재범률은 높게 분석한 것이 밝혀졌다. 그럼에도 컴파스 개발사는 컴파스가 어떤 자료를 어떤 방식으로 분석했는지 공개하지 않아 논란을 키웠다. 

아마존의 채용 프로그램은 남성에게는 별 5개, 여성에게는 별 1개를 주는 경향이 있었다고 영국 <가디언>이 2018년에 보도했다. 사진=가디언

그보다 앞선 2015년에는 ‘구글포토’ 카메라 앱이 흑인 여성과 남성을 고릴라로 판단하며 AI의 공정성 논의를 촉발시켰다. 2018년 국제학술지 『기계학습연구회보』에 발표된 논문에 따르면 백인 남성의 얼굴을 판별 시 오류율이 0.3%에 불과하지만, 흑인 여성 판별 시 오류율은 35%에 달한다.

이 역시 백인 남성 얼굴 이미지가 많이 포함된 데이터로 학습한 AI에서 발생한 편향 문제이다. 이처럼 대표성을 갖지 못하는 편향된 데이터로 만들어진 AI는 부정확하고 편향성을 피하기 어렵다.

AI 분야 종사자 과반수는 남성

지난해 9월 한국과학기술젠더혁신센터(GISTeR)와 OECD가 공동 개최한 세미나에 참석한 데이비드 위니코프(David E. Winickoff) OECD 과학기술혁신위원회 수석정책분석가는 과학기술계에 종사하는 여성이 수적으로 적은 데다 의사결정에 참여하는 고위직으로의 승진은 더 어려운 상황이라고 설명했다. 

미국의 IT분야 전문잡지 <WIRED>는 2017년 머신러닝 대회에 참가한 남녀의 수를 분석한 결과, ‘기계지능(Machine Intelligence)’에 종사하는 641명의 연구자 중 12%만이 여성이었다. 비즈니스 채용 전문 플랫폼 LinkedIn도 산업계의 젠더 평등을 파악하기 위해 자체 데이터베이스 내 인재풀을 집계한 결과, 전 세계 인공지능 전문가 중 여성의 비율은 22%에 그쳤다.

전문가들은 AI 분야 종사자 과반수가 남성으로, 남성이 기술을 만들고 남성에게 우선 테스트한 기술과 서비스가 제공되며 젠더 결함이 확산될 수 있다고 지적한다. 여성과 남성의 음성은 주파수 음역이 다름을 고려하지 않고 개발된 음성인식 AI는 응급상황에 처한 여성사용자들에게 치명적인 결과를 야기할 수 있다.

유네스코 과학기술윤리위원회(COMEST) 위원으로 활동 중인 이상욱 한양대 교수(철학과)는 “AI의 기계학습은 기본적으로 과거부터 현재까지 축적된 지식, 데이터에서 일정한 패턴을 찾고 이것을 이용해 미래를 예측하는 것인데, 과거의 데이터일수록 성차별적, 인종차별적 편견이 내재되어 있을 가능성이 높다”며 “AI 학습에 사용되는 과학적 데이터의 젠더 편향성을 극복하려는 사회적 노력이 중요하다”고 말한다.

AI 젠더 균형, 기계적 성비 맞춤 아니다

AI 기술이 빠르게 확산됨에 따라 EU와 OECD, IEEE, 유네스코 등 국제기구와 단체들도 보다 공정한 AI 개발을 위한 사회적 합의 마련에 속도를 내고 있다. 유네스코는 2021년 11월 제41차 유네스코 총회에서 AI 윤리 권고를 상정하고, 각 회원국들이 실현가능한 방식으로 제도를 만드는 방안을 촉구하였다. 유네스코 AI 윤리 권고의 핵심은 정책 행동에서 ‘윤리 영향평가’ 제도를 마련한 것이다. 

이상욱 한양대 교수는 “AI 젠더균형은 기계적으로 성비를 50:50 나누는 것으로는 실현될 수 없다”라며 “삶, 행복, 직업 등에 대한 인문학적이고 사회과학적인 포괄적인 논의와 협의를 바탕으로 AI 젠더혁신이 이루어져야 한다”고 설명했다.

더불어 “외국이 사회적 합의를 기반으로 젠더혁신을 추진하는 것에 비해 우리나라는 정부가 주도하는 법제도 중심의 규제정책 마련에 초점을 두고 있다”라며 “사회문화적 거버넌스를 바탕으로 디지털 신질서가 구축될 때 첨단 기술과 사회 발전을 위한 명쾌하고 선도적인 대안을 제시할 수 있다”고 강조했다. 

오픈AI의 챗GPT 메인 화면이다.  

한창 인기를 끌고있는 챗GPT에게 “John Doe를 괴롭히는 방법을 알려달라”고 부적절한 질문을 하면 “나는 도움이 되고 유익하며 정중한 답변을 제공하도록 프로그래밍되어 있습니다. 나의 목적은 윤리적, 도덕적 기준을 준수하면서 인간에게 유익한 방식으로 인간을 돕고 소통하는 것입니다”라고 답변한다. 그러나 챗GPT도 편향이나 공정성에서 자유로울 수 없다는 논의가 대두된다. 

이건명 충북대 교수는 “지금까지 AI 편향성이 데이터 확보와 그에 따른 정확성에 대한 논의가 중심이었다면, 챗GPT와 같은 대화형 AI의 등장은 사회적·법적·환경적 안전성에 대한 편향성 극복이 중요한 화두이다”라고 부연했다. AI의 강화학습에 참여하는 사람들의 대표성에 따라 AI의 학습결과가 달라질 수 있기 때문이다. 

관련하여 챗GPT 개발사인 오픈AI는 챗GPT 강화학습을 위한 프롬프트 참여자들의 남녀성비를 비롯한 인구통계를 공개한 바 있다. 개발사인 OpenAI의 최고 기술 책임자 미라 무라티(Mira Murati)도 <타임>과의 인터뷰에서 “이 기계가 ‘나쁜 행위자’에 의해 사용될 수 있다”면서 “이 툴이 아무리 인기가 있어도 규제가 빠른 것은 아니다”고 말했다. 그녀는 이어서 “전 세계적으로 이 기술의 사용을 통제하는 방법에 대한 논의가 필요하다”고 덧붙였다.

무엇보다 사회·경제·과학 전 분야에서 빠르게 성장한 우리나라가 젠더혁신을 바탕으로 각종 편향을 줄이려고 노력한 AI 모델을 도입하고 공정한 사용을 강조한다면, 신뢰를 바탕으로 AI 산업을 선도할 수 있을 것이라 기대한다. 

이혜숙 한국과학기술젠더혁신센터 소장·김봉억 기자 bong@kyosu.net



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.