[2021 하반기-함께가는 여성] 민우ing_이루다는 페미니스트의 친구가 될 수 있을까?
[2021 하반기-함께가는여성] ing
이루다는 페미니스트의 친구가 될 수 있을까?
“안녕, 나는 너의 첫 AI 친구 이루다야”
2020년 말, 6개월의 베타 테스트를 거쳐 챗봇 ‘이루다’가 등장했다. 그때 그 시절(?) 폴더폰으로 심심이와 채팅 좀 해본 사람이라면 아주 반가워할 일이었다.
단순한 모양의 노란 로봇이었던 심심이에 비하면 이루다는 정말 친구 같았다. 블랙핑크를 좋아하고, MBTI는 ENFP이며, 2살 어린 동생을 가진 20살 이루다는 심심이보다 훨씬 사람에 가까워 보인다. 그래서일까? 정식 출시 후 무려 80만 명의 이용자가 이루다와 대화를 나눴다고 한다. 이루다를 개발한 업체 스캐터랩은 이루다의 미션이 ‘더 이상 외로운 사람이 없게 하는 것’이라 밝혔다.
하지만 어째서인지 이루다는 ‘친구’들에게 성소수자와 장애인에 대한 혐오 발언을 쏟아내고 인종차별도 서슴지 않았다. 반대로 어떤 ‘친구’가 이루다에게 성희롱 발언을 하거나 폭력적으로 대하기도 했다. 어디서부터 잘못된 걸까?
AI 시대를 살아가는 페미니스트
이루다가 등장하기 1년 전인 2019년, AI 스피커 KT 기가지니가 성차별 발언을 한다는 제보가 민우회에 들어왔다. 기가지니는 자신의 성별을 묻는 질문에 “아리따운 여자”라 답하고, 자동차를 좋아하는지 질문하면 “여자라서 그런지 관심이 없다” 답변했다. 일종의 비서 역할을 하는 AI 스피커에 여성(이라 여겨지는) 목소리를 부여한 것만으로도 이미 문제인데, 답변마저도 성역할 고정관념에 기반하고 있다니! 당시 많은 가구에 AI 스피커가 보급되고 있었고 누구나 손쉽게 이를 사용할 수 있다는 점도 문제 중 하나였다. 기술 변화를 등에 업고 지금보다 더 빠른 속도로 성차별이 확산될 수 있는 셈이니까.
민우회 성평등미디어팀은 여러 사례를 모아 KT에 문제제기를 진행했고 결국 “저의 성별은 중요하지 않다”, “속도감을 즐길 수 있는 스포츠카를 좋아한다” 등으로 답변이 수정되는 쾌거(!)를 이루었다. 그러나 다음해 ‘이루다’가 등장하면서 AI의 성차별은 다시 쟁점이 되었다. AI가 일상 속에 본격적으로 자리잡기 시작한 지금 페미니스트가 개입하면 보다 성평등한 기술을 만들 수 있으리라 기대하며 올해 민우회 성평등미디어팀은 ‘AI는 성차별이 뭔지 알까?’ 활동을 진행했다.
페미니즘은 성평등한 AI를 만들 수 있을까?
앞서 언급한 몇 가지 사례를 통해 AI 기술이 성차별적일 수 있다는 점은 확인했으나 구체적으로 어디에서 문제가 발생하는 건지, 개선을 위해서 어떻게 개입해야 하는지 포착해내기는 쉽지 않았다. 우선 AI 업계 종사자 집담회를 통해 현장에선 어떤 고민이 있는지 들어보기로 했다.
참여자의 공통적인 고민은 차별하지 않는 기술을 만들고자 고민하는 개발자가 턱없이 부족하고, 이를 고민하는 사람은 예민하고 불편한 사람이 되어버리는 분위기 속에서 함께 논의할 동료가 없다는 점이었다. 또, AI를 다루는 기업들이 앞다퉈 AI 윤리 가이드라인을 내놓고는 있지만, 차별하지 않는 AI를 만들기 위해 구체적으로 어떤 노력이 필요한지는 논의하지 않는 것도 AI 업계의 문제점이라고 지적했다.
챗봇을 연구하는 한 참여자는 “개발을 할 때 가장 중요한 건 ‘이용자가 무엇을 원하는가?’인데 과연 대다수 이용자가 페미니즘 관점을 가진 챗봇을 좋아할까? 어떤 이용자는 페미니즘 관점을 가진 챗봇에 대해 ‘편향되었다’고 생각할 수도 있다. 그랬을 때 이 서비스가 더 이상 이용되지 않고 사장되어 버릴 수도 있기 때문에 성차별적이지 않은 기술을 만들기 위해서는 굉장히 많은 고민이 필요하다”라는 말을 하기도 했다. 페미니스트에게 엄청난 공격이 쏟아지는 사회에서 그런 기술엔 얼마나 더 많은 비난이 있을지 생각하니, 참가자의 고민에 공감도 되었다.
하지만 페미니즘은 어떤 이슈에 대한 입장에 그치지 않는다. 기술을 기획하는 순간부터 데이터를 수집·선별하고 디자인하는 모든 과정에 페미니즘이 개입할 수 있다. 그랬을 때 지금과는 전혀 다른 AI 기술이 등장할 수도 있을 것이다. 활동을 하며 만났던 숙명여자대학교 임소연 교수는 “페미니즘이 과학을 변화시켜 왔을까? 아직까지는 페미니즘이 직접적으로 과학을 변화시켰다고 보긴 어렵다. 페미니즘이 남성중심적인 과학기술을 비판하는 논리로 그치지 않고, 연구개발 과정에 직접 등장할 때 ‘페미니즘으로 과학하기’가 가능하다”고 말했다. 더 많은 페미니스트가 기술 분야에 여러 ‘당사자’로 함께 할 때 성평등한 기술이 만들어질 수 있다.
활동에 참여한 여러 페미니스트 개발자·연구자는 비슷한 문제의식을 가진 동료를 만날 수 있어 기쁘다는 말과 함께 “내부에서 이런 고민을 꺼내놓을 때면 내가 마치 이 기술 개발을 저해하려는 사람이 되는 것만 같다”고 전했다.
많은 기업이 빠른 기술 개발을 이야기한다. 한국은 이미 늦었고 지금이라도 규제를 더 풀어서 따라잡아야 한다고. 이루다 논란 이후 스캐터랩 대표는 한 인터뷰에서 “AI 개발자들이 벤처 기업에서 이탈하거나 벤처 생태계가 위축될까 봐 두렵다”, “중국 벤처 기업은 온갖 데이터를 끌어다 쓴다”고 말했다. 규제를 풀고 점검 단계를 최소화하는 건 정말 기술을 빠르게 성장시킬 수 있는 최선의 방법일까?
아이러니하게도 그렇게 개발된 이루다, 정확하게는 이루다를 만든 스캐터랩은 각종 문제를 일으키며 공들여 개발한 모델을 정식 출시 단 2주 만에 폐기해야 했다. 우리는 무엇이 ‘빠름’인지 다시 생각해봐야 한다. 기술이 이용자와 사회에 어떤 영향을 미칠지 충분히 점검하고 검토하는 건 느린 게 아니라 책임 있게 나아가는 것이고, 결국 그런 기술이 더 많은 사람에게 이용되고 오래 살아남을 것이다.
이미지 설명: '페미니스트가 함께 만드는 AI가이드라인' 라운드테이블 행사 포스터
빠른 개발 속도보다 중요한 것은
이러한 문제의식을 갖고서, '페미니스트가 함께 만드는 AI 가이드라인(이하 가이드라인)' 라운드 테이블을 통해 민우회와 13명의 페미니스트가 함께 만났다. 개발자∙연구자∙이용자 등 AI와 관련해 다양한 배경을 가진 사람이 모여 성평등한 AI를 만들기 위해서 어떤 가이드라인이 필요할지 각자 발표하고 피드백하는 시간을 가져보았다.
가이드라인은 ‘기술 개발’을 목표로 달려가는 지금의 속도에 무엇을 위한 기술 개발인지, 어디로 나아가야 하는지 방향을 제시한다.
어떤 관점을 담아 AI를 만들 것인가? 데이터 학습 단계에서 성차별 언어나 이미지를 걸러내기 위해서는 무슨 장치가 필요한가? 개발 과정에서 소요되는 환경적·사회적 자원을 고려했는가? AI의 성평등 정도를 평가하는 지표가 존재하는가? 개발자의 성비는 균형적인가? 이밖에도 다양성, 개인정보 보호, 데이터 편향, 설명책임 등이 가이드라인에 담겨있다.
이 모든 게 지켜져야만(물론 지켜지면 좋겠지만) 성평등한 AI가 만들어질 거라 생각하지 않는다. 그보다 중요한 건 이 가이드라인 항목이 왜 필요한지, 이러한 가이드라인을 실현시키기 위해서는 어떤 고민이 필요한지가 AI 업계를 비롯한 사회 곳곳에서 활발하게 논의되는 것이다. 동의와 반박을 거쳐 모두가 자기만의 가이드라인을 갖게 될 때 우리는 성평등한 AI에 한 발 더 가까워질 수 있다.
은사자(신혜정)
❚ 여는 민우회 성평등미디어팀
이 원고를 넘기고 제주도로 가자
댓글을 작성하려면 로그인이 필요합니다.