[설문] AI를 이용하며 겪은 차별·혐오 사례를 제보해주세요!
(민우회 성평등미디어팀의 [AI는 성차별이 뭔지 알까?] 활동 홍보물)
"당신을 이해하고 귀기울이며 알아주는 하나의 존재"
2014년 개봉한 영화 [그녀(her)] 속 AI(인공지능) 운영체제인 '사만다'를 설명하는 문구였는데요.
2020년 12월, 한국에서도 "안녕! 난 너의 첫 AI 친구 이루다야"라는 문구를 내걸고 AI 챗봇 '이루다'가 서비스 되기 시작했죠.
멀게만 느껴지던 AI를 이제 일상 곳곳에서 만나볼 수 있습니다.
주문자에게 음식을 배달할 최적의 라이더를 배차하는 업무는 AI 배차 시스템이 맡고 있구요.
[띵작]을 [rnasterpiece]로 '초월 번역' 해내는 것도 AI 번역이 가능케 했습니다.
코로나19 여파로 직접 대면하지 않아도 되는 AI 면접을 도입한 기업이 늘어났고 앞으로 더 상용화 될 전망이라고 합니다.
이외에도 의료, 운송, 교육, 쇼핑까지 AI 기술은 다양한 분야에서 활용되고 있습니다.
이렇게 우리 삶과 밀접한 기술이 되어버린 AI, 그냥 자연스럽게 받아들이면 되는 걸까요?
앞서 언급한 AI 챗봇 '이루다'는 이용자와 대화 중 성차별/소수자혐오적 발언을 마구 쏟아내면서 3주만에 서비스를 잠정 중단하게 되었습니다.
모 번역 프로그램은 한국 사회 밈인 [띵작]까지도 초월 번역해내는 최첨단(!)이지만 간호사는 여성으로, 의사는 남성으로 전제한다는 점에서는
굉장히 구시대적입니다(*) AI 면접을 이용하는 기업과 구직자는 'AI 면접관'이 '인간 면접관'보다 공정하고 신뢰할만하다고 기대하는데, 정말 그럴까요?
(*) 출처: 슬랩, AI가 차별을 배우면 이렇게 됩니다(https://youtu.be/-9L82h0VhZk)
AI를 이용하며 겪은 차별·혐오 사례를 제보해주세요!
제보해주신 사례를 통해 AI가 활용되고 있는 다양한 분야를 페미니즘 관점에서 살펴보고,
성평등한 기술이 구축되기 위해서는 무엇이 보완되어야 하는지 고민해보고자 합니다.
많은 관심 부탁드려요!
문의: 한국여성민우회 성평등미디어팀 활동가 은사자, 보라 (02-737-5763 / [email protected])
댓글을 작성하려면 로그인이 필요합니다.