
인공지능이 우리의 일상 속으로 깊숙이 들어온 요즈음입니다.
인공지능을 사용하면서도 인공지능이 차별적 답변을 주거나 고정관념을 고착시키는 이미지를 내놓고 있지 않은지,
인공지능이 일으키는 사회적 문제는 없는지 페미니스트로서 걱정스러운 마음이 들기도 하지요.
한편, 이재명 정부는 핵심 국정과제로 AI산업 육성을 이야기하며, 기반으로서 일명 'AI 고속도로'를 마련하겠다고 말하고 있어요.
정부의 국정과제 5개년 계획에는 AI라는 말이 577번이나 언급될 정도입니다.
이런 상황에 페미니스트로서 인공지능에 대해 알고 개입하기 위해, 인공지능과 페미니즘의 연결점을 이야기하는 강의를 열게 되었어요.

10월 29일 저녁 7시 30분, 경남대학교 교양교육연구소 허유선 선생님을 모시고
첫 번째 강의인 〈인공지능의 젠더 편향과 인공지능 윤리〉가 진행되었습니다.
먼저 인공지능의 젠더 편향 사례를 분야 별로 구체적으로 살펴보았어요.
인공지능의 목소리와 형태, 번역, 챗봇의 성차별, 알고리즘 편향, 금융 및 채용 평가의 차별, 생성형 인공지능의 편향 문제 등을 짚어볼 수 있었어요.
인공지능 비서의 목소리는 왜 기본값이 여성일까?
인공지능 번역은 한국어를 영어로 번역할 때 왜 의사를 남성 대명사로 번역할까?
여성에게 고임금 일자리가 덜 추천되고, 금융심사도 엄격하게 적용된다고?
생성형 인공지능이 만든 이미지가 현실을 왜곡하며 성별고정관념을 고착시키고 있다는데….
심증으로만 알았던 인공지능의 차별을 실질적인 사례로 확인하니 좀 더 경각심이 들었습니다.

이런 젠더 편향이 발생하는 이유는 인공지능 학습에 이용되는 데이터가 편향되어 있기 때문이라고 알려져 있는데요.
이는 단순히 데이터 수집을 늘린다고 해결되는 문제가 아니라는 점이 짚어졌습니다.
이미 이 사회가 차별적이기에, 사회에서 생산된 데이터에도 편견이 쌓여 있다는 것이죠.
게다가 알고리즘은 이런 편향성을 극대화하는 방향으로 움직이기 쉽습니다.
또한 인공지능의 알고리즘 작동 과정 및 산출 결과의 근거를 정확히 알기 어려운 알고리즘의 불투명성의 문제는 인공지능의 젠더 편향으로 인한 차별의 책임을 묻기도 어렵게 합니다.

인공지능의 차별 문제를 해소하기 위해, 문제의 원인에 따른 대책이 필요함을 말씀해주셨어요.
데이터 편향을 줄이기 위해 데이터 수집, 선별, 검증 등 전체 과정에서 젠더 관점이 필요합니다.
또 알고리즘 편향성을 줄이기 위해 윤리적 설계와 알고리즘 영향평가가 이루어져야 하고요.
알고리즘 투명성을 높이기 위해 인간이 인공지능의 결과를 이해할 수 있고, 이용자에게 결과에 대한 명확한 설명을 제공할 수 있도록 노력을 기울여야 합니다.
이 모든 대책을 위해서는 인공지능과 관련자의 책무성이 강화되어야 함이 짚어졌습니다.
이를 위한 구체적인 제도적·개인적 실천 방안을 짚어보며 강의가 마무리되었습니다.

이어서 11월 4일 저녁 7시 30분, 한국여성정책연구원 김애라 선생님을 모시고
두 번째 강의인 〈인공지능정책과 페미니스트 운동 과제〉가 진행되었습니다.

먼저 '인공지능 위험' 개념을 살펴보았어요.
인공지능이 일으킬 수 있는 위험에는 ①차별 및 유해성 ②프라이버시 및 보안 ③허위정보 ④악의적 행위자 및 오용 ⑤인간-컴퓨터 상호작용 ⑥사회경제적 및 환경적 영향 ⑦AI시스템의 안전, 실패, 한계 등이 있는데요.
이런 위험 발생을 데이터베이스화 했을 때, 차별 및 유해성 항목이 가장 많은 수를 차지했다고 해요.
기술 설계와 활용 과정에는 측정 집단의 사회경제적 힘과 가치관이 투영되므로,
인공지능 기술에 대해서도
인공지능은 무엇으로 상상되는지,
인공지능은 누가 누구를 위해 설계하며,
누가 어떻게 이익을 취득하는지,
인공지능 성능에서 '가치'는 왜 배제되는지 등을 질문할 필요가 있음이 짚어졌습니다.

인공지능 관련 법제의 해외와 국내 사례도 살펴보았습니다.
EU의 AI ACT, 미국의 신뢰할 수 있는 인공지능 행정명령, 영국의 온라인 안전법, 싱가포르의 인공지능 및 데이터법 등의 사례를 간단히 살펴보았어요.
특히 EU의 AI ACT의 경우, 인권을 침해하고 차별을 야기할 수 있는 인공지능을 '고위험'인공지능으로 분류하여 규제하도록 하고 있으며, 인공지능 정책기구 구성 시 성별 균형을 명시하고 있기도 합니다.
그러나 2025년 1월 제정되어 26년 1월 시행 예정인 한국의 인공지능 기본법은 기본권을 침해할 우려가 있는 인공지능을 '고영향'인공지능으로 분류하여 규제하고 있기는 하지만, 차별 혐오에 대한 규정은 없고, 규제도 상대적으로 미비한 상황이었습니다.

마지막으로 인공지능 시대에 성평등 운동의 의제는 무엇일까에 대해 이야기를 나누며 강의가 마무리되었습니다.
데이터에 여성과 소수자 경험을 반영하고 시민이 참여할 수 있도록 해야 하고,
젠더 관점의 인공지능 검증 시스템이 필요하며,
플랫폼 책임이 강화되어야 하고,
인공지능 개발 과정에 시민사회의 참여와 협업이 이루어져야 하고,
인공지능 리터러시 교육이 이루어져야 함을 제안해주셨습니다.
성평등 운동은 인공지능에 젠더 관점을 도입하고 개입하는 감시자이자 의제 제안자의 역할을 해야 한다고도 말씀해주셨어요.
두 번의 강의를 통해, 인공지능과 관련된 다양한 젠더 이슈들을 알아보고 이후의 과제를 고민해볼 수 있었어요.
앞으로도 페미니스트 관점의 인공지능 기술에의 개입이 꾸준히 이루어져야 할 것입니다!
인공지능이 우리의 일상 속으로 깊숙이 들어온 요즈음입니다.
인공지능을 사용하면서도 인공지능이 차별적 답변을 주거나 고정관념을 고착시키는 이미지를 내놓고 있지 않은지,
인공지능이 일으키는 사회적 문제는 없는지 페미니스트로서 걱정스러운 마음이 들기도 하지요.
한편, 이재명 정부는 핵심 국정과제로 AI산업 육성을 이야기하며, 기반으로서 일명 'AI 고속도로'를 마련하겠다고 말하고 있어요.
정부의 국정과제 5개년 계획에는 AI라는 말이 577번이나 언급될 정도입니다.
이런 상황에 페미니스트로서 인공지능에 대해 알고 개입하기 위해, 인공지능과 페미니즘의 연결점을 이야기하는 강의를 열게 되었어요.
10월 29일 저녁 7시 30분, 경남대학교 교양교육연구소 허유선 선생님을 모시고
첫 번째 강의인 〈인공지능의 젠더 편향과 인공지능 윤리〉가 진행되었습니다.
먼저 인공지능의 젠더 편향 사례를 분야 별로 구체적으로 살펴보았어요.
인공지능의 목소리와 형태, 번역, 챗봇의 성차별, 알고리즘 편향, 금융 및 채용 평가의 차별, 생성형 인공지능의 편향 문제 등을 짚어볼 수 있었어요.
인공지능 비서의 목소리는 왜 기본값이 여성일까?
인공지능 번역은 한국어를 영어로 번역할 때 왜 의사를 남성 대명사로 번역할까?
여성에게 고임금 일자리가 덜 추천되고, 금융심사도 엄격하게 적용된다고?
생성형 인공지능이 만든 이미지가 현실을 왜곡하며 성별고정관념을 고착시키고 있다는데….
심증으로만 알았던 인공지능의 차별을 실질적인 사례로 확인하니 좀 더 경각심이 들었습니다.
이런 젠더 편향이 발생하는 이유는 인공지능 학습에 이용되는 데이터가 편향되어 있기 때문이라고 알려져 있는데요.
이는 단순히 데이터 수집을 늘린다고 해결되는 문제가 아니라는 점이 짚어졌습니다.
이미 이 사회가 차별적이기에, 사회에서 생산된 데이터에도 편견이 쌓여 있다는 것이죠.
게다가 알고리즘은 이런 편향성을 극대화하는 방향으로 움직이기 쉽습니다.
또한 인공지능의 알고리즘 작동 과정 및 산출 결과의 근거를 정확히 알기 어려운 알고리즘의 불투명성의 문제는 인공지능의 젠더 편향으로 인한 차별의 책임을 묻기도 어렵게 합니다.
인공지능의 차별 문제를 해소하기 위해, 문제의 원인에 따른 대책이 필요함을 말씀해주셨어요.
데이터 편향을 줄이기 위해 데이터 수집, 선별, 검증 등 전체 과정에서 젠더 관점이 필요합니다.
또 알고리즘 편향성을 줄이기 위해 윤리적 설계와 알고리즘 영향평가가 이루어져야 하고요.
알고리즘 투명성을 높이기 위해 인간이 인공지능의 결과를 이해할 수 있고, 이용자에게 결과에 대한 명확한 설명을 제공할 수 있도록 노력을 기울여야 합니다.
이 모든 대책을 위해서는 인공지능과 관련자의 책무성이 강화되어야 함이 짚어졌습니다.
이를 위한 구체적인 제도적·개인적 실천 방안을 짚어보며 강의가 마무리되었습니다.
이어서 11월 4일 저녁 7시 30분, 한국여성정책연구원 김애라 선생님을 모시고
두 번째 강의인 〈인공지능정책과 페미니스트 운동 과제〉가 진행되었습니다.

먼저 '인공지능 위험' 개념을 살펴보았어요.
인공지능이 일으킬 수 있는 위험에는 ①차별 및 유해성 ②프라이버시 및 보안 ③허위정보 ④악의적 행위자 및 오용 ⑤인간-컴퓨터 상호작용 ⑥사회경제적 및 환경적 영향 ⑦AI시스템의 안전, 실패, 한계 등이 있는데요.
이런 위험 발생을 데이터베이스화 했을 때, 차별 및 유해성 항목이 가장 많은 수를 차지했다고 해요.
기술 설계와 활용 과정에는 측정 집단의 사회경제적 힘과 가치관이 투영되므로,
인공지능 기술에 대해서도
인공지능은 무엇으로 상상되는지,
인공지능은 누가 누구를 위해 설계하며,
누가 어떻게 이익을 취득하는지,
인공지능 성능에서 '가치'는 왜 배제되는지 등을 질문할 필요가 있음이 짚어졌습니다.
인공지능 관련 법제의 해외와 국내 사례도 살펴보았습니다.
EU의 AI ACT, 미국의 신뢰할 수 있는 인공지능 행정명령, 영국의 온라인 안전법, 싱가포르의 인공지능 및 데이터법 등의 사례를 간단히 살펴보았어요.
특히 EU의 AI ACT의 경우, 인권을 침해하고 차별을 야기할 수 있는 인공지능을 '고위험'인공지능으로 분류하여 규제하도록 하고 있으며, 인공지능 정책기구 구성 시 성별 균형을 명시하고 있기도 합니다.
그러나 2025년 1월 제정되어 26년 1월 시행 예정인 한국의 인공지능 기본법은 기본권을 침해할 우려가 있는 인공지능을 '고영향'인공지능으로 분류하여 규제하고 있기는 하지만, 차별 혐오에 대한 규정은 없고, 규제도 상대적으로 미비한 상황이었습니다.
마지막으로 인공지능 시대에 성평등 운동의 의제는 무엇일까에 대해 이야기를 나누며 강의가 마무리되었습니다.
데이터에 여성과 소수자 경험을 반영하고 시민이 참여할 수 있도록 해야 하고,
젠더 관점의 인공지능 검증 시스템이 필요하며,
플랫폼 책임이 강화되어야 하고,
인공지능 개발 과정에 시민사회의 참여와 협업이 이루어져야 하고,
인공지능 리터러시 교육이 이루어져야 함을 제안해주셨습니다.
성평등 운동은 인공지능에 젠더 관점을 도입하고 개입하는 감시자이자 의제 제안자의 역할을 해야 한다고도 말씀해주셨어요.
두 번의 강의를 통해, 인공지능과 관련된 다양한 젠더 이슈들을 알아보고 이후의 과제를 고민해볼 수 있었어요.
앞으로도 페미니스트 관점의 인공지능 기술에의 개입이 꾸준히 이루어져야 할 것입니다!