
[후기] 'AI는 성차별이 뭔지 알까?' 물어보기 전에 AI를 알아가는 워크숍을 진행했어요! (1편)
AI(artificial intelligence, 인공지능) 하면 뭐가 떠오르나요?
휴먼..나에 대해 뭘 알고 있지...? 이미지 출처: Blutgruppe Corbis, 관자놀이에 손가락을 짚고 있는 로보트
2020년 쯤 되면 자동차는 날아다니고, 우주여행을 떠나고, 로보트가 밥도 차려주고 씻겨주기도 할 줄 알았는데...
인간처럼 행동하고 생각하는 '로봇'은 아직 멀어보이지만, AI는 이미 우리 생활 깊숙하게 들어와 있다는 사실!
유튜브 추천 알고리즘부터 번역 사이트, 배달 앱, 얼마 전 유행했던 디즈니 필터까지 AI 기술이 활용된다고 해요.
가까워진 AI 기술, 과연 페미니스트의 관점으로 살펴봤을 때 아무 문제 없을까요?
과연 AI는 성차별이 뭔지 알까요?
('AI는 성차별이 뭔지 알까?' 라는 문구와 물음표를 달고 있는 얼굴)
AI가 활용되는 여러 분야를 살펴보고 기술 개발/구현 단계에 젠더 관점이 반영될 수 있도록 활동해나가기 위해
민우회 성평등미디어팀에서는 6차례 내부 워크숍을 진행했습니다. 워크숍에서 어떤 이야기가 나왔는지 살짝 전합니다!
“이미 사회가 성차별적인데 왜 AI가 특별히 윤리적이어야 하죠?"
가장 먼저 허유선(동국대 철학과) 선생님과 AI 윤리에 대한 이야기를 나눠보았는데요.
누군가는 "이미 사회가 성차별적인데 왜 AI가 특별히 윤리적이어야 하는 거죠?" 물을지도 모릅니다. 왜 그래야 하는 걸까요?
우선 고도의 자동화 덕분에 대부분의 절차가 빠르게 진행되어서 문제가 생겼을 때 개입하기가 쉽지 않다는, AI 특성에 대한 이야기로 워크숍을 시작해보았습니다.
게다가 빠르게 성장 중인 기술이라는 점 또한 개입을 어렵게 하는 한 측면이었는데요.
그렇기 때문에 기술 개발 단계마다 의식적으로 '윤리'를 고민하지 않으면, 문제적인 내용이 그대로 AI에 반영되어 '알고리즘', '기술'의 외피를 두르고
마치 인간보다 공정하고 정확한 것처럼 보이게 만든다는 점을 짚었습니다. 이로 인해 차별이 강화 되거나 혹은 전혀 다른 종류의 차별이 생겨날 수도 있다는 거죠.
그런데다 느낌적 느낌(?)으로는 AI가 우리 삶에 아주 가까워졌지만, 정확히 무슨 단계에서 어떻게 사용되고 있는지는 알기 어렵다는 점이
더욱 문제적이라고 이야기 나눴습니다. AI 기술로 인해 피해를 받거나, 차별에 노출되어도 인지조차 못 하게 되는 상황이 생길 수 있는 거죠.
(이미지 출처: 스캐터랩 / 챗봇 이루다를 홍보하는 이미지, "안녕, 난 너의 첫 AI 친구 이루다야"라는 문구 왼편에 긴 머리를 하고 셀카를 찍는 챗봇 '이루다'가 있음)
AI가 성차별적이지 않아야 하는 가장 중요한 이유는 이것이 인간을 경유하여 활용되는 기술이기 때문입니다.
얼마나 더 많은 데이터를 처리할 수 있는지, 더 정확하게 결과를 예측할 수 있는지. 어떤 AI가 가장 '사람처럼' 말할 수 있는지 연구하는 것은
이것이 기술 그 자체만으로 의미 있기 때문이 아니라 우리 삶을 이전과는 다른 방향으로 나아가게 만들 수 있기 때문에 유의미한 거겠죠.
AI 영향력이 점점 커져갈 것으로 예상됩니다. 기술이 막 성장하는 초기 단계인 지금 개입해 조금씩 수정해나가야
새로운 '경로의존성'을 기대해볼 수 있다는 이야기를 나누며 워크숍이 마무리 되었습니다.
여성, 소수자가 배제되지 않은 양질의 공공데이터가 필요하다
이어 김유향 선생님(국회 입법조사처)을 모시고 국내외 AI 관련 정책 동향을 들어보고, 한국에서는 어떤 정책이 보완되어야 할지 함께 고민해보았습니다.
인공지능 분야의 가장 심각한 성차별은 AI 관련 인력(관련 업계, 학계 등) 중 여성의 비율이 낮다는 점이라는 이야기를 나눴는데요.
(이미지 출처: 인공지능 분야 양성평등 정책 확산을 위한 토론회 발표 화면 캡쳐, 카이스트 최문주 교수 / 이공계 성별 현황에 대한 표)
지난 4월 진행된 [인공지능 기술 연구 및 전문 인력 양성정책 특정성별영향평가] 연구결과 토론회에서
"인공지능 관련 사업체(271개)에서 여성 대표자 비율은 5.5%(2019년 기준),
4년재 대학의 전자·정보통신공학 관련 교원(2천429명) 중 여성 비율은 2.9%(2019년 기준)"라는 결과가 공유되기도 했습니다.
기술의 다양성을 확보하기 위해서 가장 우선적으로 진행되어야 하는 것은 기술을 개발하고 연구하는 성별의 다양성을 높이는 것이겠죠.
이어 정부 차원에서 양질의 공공 데이터를 제공하는 것 또한 필요하다는 이야기를 나누었습니다.
AI는 데이터를 기반으로 작동하는 기술이기 때문에 더더욱 데이터에 편향이 없는지, 특정 성별이 과도하게 대표되고 있지는 않은지 살펴봐야합니다.
여성 '집단'의 능력을 향상시켜 나가야 한다
AI 분야의 성별 다양성을 확보하기 위해 여성 이공계인을 어떻게 양성할 수 있을지,
페미니즘이 과학기술에 어떻게 개입할 수 있을지 임소연 선생님(숙명여대 인문학연구소)과 이야기 나눠보기도 하였는데요.
과거 이공계 분야에서 여성이 전혀 보이지 않던 것에 비해 어느 정도 늘어나긴 했으나
여전히 전통 공학 분야에는 여성 비율이 많이 낮다는 점을 확인할 수 있었습니다.
또, 마치 과학기술 능력과 여성성이 양립불가능한 것처럼 여겨지는 환경에 대한 이야기도 나눠보았습니다.
여성은 늘 자신의 능력을 증명해야하고, (여러 분야에서 그렇듯) 여전히 여성 공학자의 경우 ‘공학자’이기보다 ‘여성’으로 다뤄지는 게 현실이죠.
유리천장을 깬, 각 분야에 진입해 뛰어난 성과를 보이는 ‘1호’ 여성의 등장은 반가운 일이나 뛰어난 능력을 가진 여성의 등장만으로는 부족합니다.
여성 ‘집단’의 능력이 저평가 되지 않고, 또 스스로 저평가하지 않도록 개인이 아닌 집단에 기반한 능력을 기르는 것이 중요하다는 이야기를 나눴습니다.
더 많은 여성이 이공계에 진입할 수 있도록 장려하고, 관련 업계 여성 목소리를 모아낼 수 있는 다양한 기획이 필요합니다.
(이미지 출처: 한빛비즈 / 책 '젠더 모자이크' 표지)
또, 페미니즘이 과학에 개입하기 위해서는 페미니즘이 (남성중심적으로 구성된) 과학을 비판하는데서 그치지 않고 과학적 검증이 되는 가설로서 제시 될 필요가 있다는 점을 짚어주시기도 했는데요.
일례로 유럽과 북미, 호주의 여성 과학자와 페미니스트로 구성된 연구자 모임 '뉴로 젠더링 네트워크'를 소개해주셨어요.
이 네트워크 멤버인 다프나 조엘은 2015년, 성인 1400명의 뇌 MRI 데이터 분석하여 개개인의 뇌는 '여성형'과 '남성형'이 뒤섞인 모자이크 모양이라는 점을 밝혀내, 여자 뇌와 남자 뇌가 따로 있지 않다는 점을 과학적으로 입증하였습니다.
바로 기존의 과학('여성의 뇌와 남성의 뇌가 따로 있다')에 페미니즘에 개입한 사례라고 볼 수 있겠죠!
세 차례 워크숍을 진행하며 페미니즘 관점으로 AI를 살펴보는 활동이 그 어느 때보다 지금 필요하다는 생각을 하게 되었는데요.
앞으로 민우회 성평등미디어팀에서는 대중강의와 가이드라인 제작을 위한 워크숍, 가이드라인 발표까지 여러 활동을 준비 중에 있습니다.
그러한 활동을 만들어 가기 위해 진행한 사전 워크숍!
다음주 금요일에는 AI 관련 법률, AI가 활용되는 교육 분야와 AI를 구성하는 데이터에 대한 워크숍 후기로 돌아오겠습니다
●●●●●
잘 읽어보셨나요? 민우회의 활동을 응원하는 가장 반가운 방법!
바로 지금, 민우회의 회원이 되어주세요!
한 사람 한 사람의 응원, 후원, 회원이 민우회에게 큰 힘이 됩니다!
2021 민우회 회원확대 캠페인 [한 사람 더하기] (8~10월)
↑위 이미지를 누르면, 민우회 정기 후원회원 가입 페이지로 넘어갑니다. (가입문의 02.737.5763 / [email protected] 민우회원팀)
댓글을 작성하려면 로그인이 필요합니다.