[후기] AI가 성차별을 할 수 있다? 없다?_미디어X페미니즘 대중강좌 AI는 성차별이 뭔지 알까?(1강)
('AI는 성차별이 뭔지 알까?' 대중강의 홍보 이미지)
안녕하세요, 지난 전문가 워크숍 후기에 이어 ‘[미디어X페미니즘] 대중강좌 AI는 성차별이 뭔지 알까?’ 후기로 돌아온 민우회 성평등미디어팀 활동가 은사자입니다! (워크숍 후기 보러가기 [1편] womenlink.or.kr/minwoo_actions/23787 [2편] womenlink.or.kr/minwoo_actions/23801)
(왼: 투자 전문 앱 '파운트' 광고 / 오: 삼성 비스포크 광고)
AI와 관련된 활동을 하고 있어서일까요? 저는 요즘 일상 여기저기서 ‘AI’를 마주하곤 합니다. TV 광고에서는 투자 솔루션을 제안해주는 AI, 세탁물을 맞춤 건조해주는 AI가 등장하고요. 한 쇼핑몰은 ‘쇼핑 메이트’라는 컨셉을 내세워, AI를 통해 개인 맞춤형 추천 서비스를 제공한다고 합니다. 얼마 전, 아무 생각 없이 길을 걷다 AI가 골프 샷을 분석해준다는 실내 골프장 홍보 포스터를 보고는 ‘AI, 정말 안 끼는데(?)가 없네!’ 생각하기도 했습니다.
이런 AI가 우리 일상을 이전보다 편리하게 만들어줄 것만 같은데, 정말 그럴까요?
일상 가까이 다가온 AI 기술을 페미니즘 관점으로 살펴보고 고민해볼 수 있도록 [AI는 성차별이 뭔지 알까?] 대중강의를 준비헀습니다. 그 첫 번째 시간, 허유선 선생님과 함께한 "기술철학의 관점에서 보는 AI와 젠더/차별 재생산: 문제의 이해부터 인공지능 가이드라인까지" 후기를 전합니다!
인공지능 차별? 인공지능이 차별을 한다?
‘기술철학의 관점에서 보는’이라는 강의 제목의 첫 구절이 왠지 무겁게만 다가오는데요. 강의는 인공지능 젠더/차별이 무엇인지부터, 그러한 차별이 발생하는 원인과 쟁점, 대응 방향과 가이드라인까지 차근차근 진행되었습니다.
우선은 인공지능 젠더/차별이 무엇인지 몇 가지 사례를 통해 설명해주셨어요.
2012년, 기계 번역이 여성대명사도 남성대명사로 번역
2015년, 사용자 맞춤형 광고 제안에서 젠더를 '여성'으로 선택할 시 '남성'으로 선택했을 때 비하여, 고임금 직업 광고 노출 빈도가 1/6
2018년, 여성 구직자를 감점시킨 아마존의 AI 채용 프로그램, 성별과 피부색에 따라서 인식률에 차이를 보이는(백인>타 인종, 남성>여성) 안면인식 프로그램
2019년, 대부분 여성으로 설정된 'AI 비서', 성별에 따라 신용카드 한도 차별 의혹이 제기된 애플 신용카드
2021년, 차별 발언을 쏟아낸 챗봇 이루다
읽다보면 ‘와, 이거 문제인데?’라는 생각이 자연스레 들기 마련이죠. 이런 상황이 'AI에 의해서' 발생했다는 게 낯설 수는 있어도, 차별의 내용은 굉장히 익숙하기 때문인데요. 즉, 인공지능의 젠더/차별이란 대단히 새로운 개념이라기보다, 인공지능에 의해 야기된 결과로 인간에게 어떠한 차별이 재생산되거나 강화되는 상황을 일컫습니다.
허유선 선생님께서 “이때 이 인공지능에 차별 의도가 있었는지는 여부는 중요하지 않다”는 이야기를 해주셨는데요. 인공지능이 인간을 차별할 의도가 없더라도 실제 차별과 그로 인한 피해가 발생했다는 게 중요하고, 그렇다면 우리는 앞으로 이 기술을 어떻게 개선할 것인지 고민하는 게 문제의 핵심이라는 말씀이 인상적이었습니다.
인공지능에 '의한' 차별이 기존의 차별과 다른 점은?
인공지능에 의한 차별이 대단히 낯선 게 아니지만 더욱 문제 시 되고, 우리가 더 집중해서 살펴봐야 하는 이유는 무엇일까요? 우선 AI 기술은 굉장히 복잡해서 문제를 인지하고 이해하는 데 어려움을 겪는다는 점이 첫 번째 포인트라는 점을 말씀해주셨습니다. 그렇기 때문에 피해자 또한 피해를 인지하기가 어렵고, (당연히) 구제받는 데도 어려움을 겪겠죠.
또, 첫 번째와 연결되어 복잡한 기술이기 때문에, 인간 행위자가 책임을 회피하거나, 그 누구도 책임을 지지 않는 책임 공백 상황이 벌어질 수 있습니다. '사람이 아니라 기술이 낸 결과입니다'라는 식의 논리가 차별을 객관적이고 합리적인 근거를 갖추는 것처럼 보이게 만들어 기존에 존재하는 차별이 정당화 되거나 영속화 될 가능성도 높습니다. 마지막으로는 생각하지 못 했던, 새로운 차별이 발생할 가능성이 있기 때문에 AI의 차별을 더 주의 깊게 살펴보아야 된다는 이야기를 해주셨습니다.
('AI는 성차별이 뭔지 알까?' 1강 강의 캡쳐 화면)
그렇다면 AI 차별에 있어 어떤 것이 쟁점이 될까요? 우선은 앞서 이야기했던 "의도가 없다"라는 태도입니다. 혹은 그 기술을 개발하는 사람에게 그럴 의도가 없었다는 건데요. 같은 맥락에서 "예상 외의 작동이다"라는 주장도 있을 수 있습니다. 그러나 우리는 "개발자의 의도를 넘어서는 기술, 의도를 넘어서는 일이 언제 어떻게 발생할지 모르는 기술을 이렇게 많은 사람이 쓰도록 만들고, 그 기술을 통해서 돈을 버는 것이 과연 정당한가" 질문해볼 수 있어야 합니다. 또, 그렇게 불확실한 기술이라면 당연히 그 불확실성을 어떻게 컨트롤 할 것인지 고민한 후 기술을 제공해야 할 것입니다.
AI 기술의 특징 중 하나는 고도의 자동화로 수많은 과정이 '빨리' 처리된다는 점인데요. 이 또한 문제해결을 어렵게 하는 지점입니다. 그렇기 때문에 우리는 이 기술이 어떤 단계를 거쳐 진행되는지 확인할 수 있는 절차가 필요하다는 주장을 할 수 있다는 점을 짚어주셨습니다. 또, '복잡한 문제', '원인/제공자를 찾기 어려움’이라는 리스크는 복잡한 21세기 기술사회에서 어쩌면 당연한 것이고, 그럼에도 불구하고 적절히 책임을 분배하는 시스템을 찾고, 미리 대응할 수 있는 방법을 고민하는 게 사회의 원칙이 되어야 한다고 이야기 해주신 부분이 기억에 남았습니다.
기술은 모두에게 평등하다?
그렇다면 인공지능에 의해 차별이 발생하는 이유는 무엇일까요? 바로 AI가 편향성을 띄고 있기 때문인데요. 한 번 더 질문하면, 그렇다면 AI는 왜 편향성을 갖고 있을까요? 당연하게도 기술이 객관적이지 않기 때문입니다. 기술은 사회와 동떨어져 존재하는 것이 아니고, 누군가의 관점에서, 누군가의 필요에 의해 만들어집니다. 그렇게 만들어진 기술은 사람과 사회에게 또 영향을 미치고, 사회적인 가치가 변화하기도 하죠.
좀 더 자세히 살펴보면 우선 데이터 편향 가능성 때문입니다. 데이터는 과거의 기록이고, AI의 기계학습은 데이터를 바탕으로 귀납적 추론을 하는 셈이니 고민없이 데이터를 가져와 쓴다면 과거의 영향에서 벗어난 새로운 의사결정을 제시하기는 어렵겠죠. 게다가 이 데이터를 누가 '라벨링'하는가, 누가 처리하는가에 따라 기술은 달라집니다. 굉장히 가치중립적인 것처럼 보이는 '데이터'조차도 많은 이해관계가 얽혀 만들어진다는 점을 짚어주셨습니다.
그럼 데이터가 덜 편향되면, 편향되지 않으면 차별하지 않는 기계가 나오는가? 그렇지 않습니다. 애초에 이 기술이 어떤 목적을 가지고 설계 되었는지, 알고리즘이 어떤 방식으로 구성되어 있는지가 큰 영향을 미치기 때문입니다. 이렇게 기술이 예측하지 못한 결과를 낼 때, 빠르게 처리하는 자동화 시스템에서 인간이 생각하고 결정할 수 있는 권한이 점차 적어질 때 인공지능에 의한 차별은 더욱 심화될 가능성이 있습니다. 인공지능은 인간처럼 사고하는 '지능'이 아니고, 그저 주어진 목표에 맞게 일을 처리해내는 시스템일 뿐입니다. 이에 대한 이해없이 기술을 이용하게 된다면 기술에 대한 통제력을 점점 잃어가게 되겠죠.
더 평등한, 모두에게 안전한 AI를 만나기 위해서는!
그렇다면 우리는 인공지능 차별문제에 대해 어떻게 개입할 수 있을까요? 가장 중요한 건 기술은 가치중립적이지 않고, 모두에게나 공정하지 않을 수 있다는 점을 언제나 인식하고 있어야 한다는 점입니다. 또, 다양하고 포괄적인 양질의 데이터를 활용한 기술인지를 점검하고, 개발과 설계단계부터 차별 문제를 민감하게 고려할 수 있도록 책임을 요구할 수 있어야 할 것입니다. 그랬을 때 어떤 개발자/기업은 "내가 왜 굳이? 나는 그냥 기술을 개발하는 사람인데 그것까지 고려해야해?"라고 질문할지도 모릅니다. 그랬을 때 당연하게 "큰 영향력을 가지고 있다면 책임도 더 많이 져야한다"고 요구할 수 있는 사회가 되어야 하겠죠. 이외에도 인공지능 기술에 가장 영향을 많이 미치는 사람은 당연히 개발자, 기업의 결정권자이고 그런 영향력을 가진 사람이 누구인지가 중요한 포인트라고 짚어주셨습니다. 성별을 비롯한 인적 다양성이 보장되고 있는지를 생각해봐야 하겠죠.
이런 문제의식을 개인이 갖는데서 그치는 것이 아니라 지속적으로 모니터링하고, '문제'를 만들어내는 것, 시민으로서 페미니스트로서 내가 할 수 있는 개입은 무엇이 있는지를 계속해서 고민하는 것이 보다 성평등한 AI를 만날 수 있는 방법이라는 이야기로 강의가 마무리 되었습니다. 허유선 선생님께서 마지막에 덧붙여주신 말씀을 전해봅니다.
"여러분이 의아해하는, '이건 이상한 것 같은데?' 의문을 갖게 되는 문제의식이 있죠? 그건 보통 되게 중요한 거예요. 여러분이 생각하는 그 문제의식을 소중히 간직하시고 자료를 찾아보고, 논의를 살펴보며 질문을 확장해나가시면 좋겠습니다."
질의응답에서도 다양한 고민을 나눠보았는데요. 어떤 이야기가 오갔는지 궁금하다면? 아래 강의를 통해서 직접 확인하세요!
다음후기 보러가기
[후기] 물품 구매 내역으로 임신 여부를 알 수 있다?!_미디어X페미니즘 대중강좌 AI는 성차별이 뭔지 알까?(2강)
[후기] 공대에 여학생이 적은 이유?!_미디어X페미니즘 대중강좌 AI는 성차별이 뭔지 알까?(3강)
[후기] 여자 이루다vs.남자 알파고?_미디어X페미니즘 대중강좌 AI는 성차별이 뭔지 알까?(4강)
●●●●●
잘 읽어보셨나요? 민우회의 활동을 응원하는 가장 반가운 방법!
바로 지금, 민우회의 회원이 되어주세요!
한 사람 한 사람의 응원, 후원, 회원이 민우회에게 큰 힘이 됩니다!
2021 민우회 회원확대 캠페인 [한 사람 더하기] (8~10월)
↑위 이미지를 누르면, 민우회 정기 후원회원 가입 페이지로 넘어갑니다. (가입문의 02.737.5763 / [email protected] 민우회원팀)
댓글을 작성하려면 로그인이 필요합니다.