[2019 하반기-함께가는 여성] 기획_기술의 변화, 불평등의 반복
기획
기술의 변화, 불평등의 반복
이희은 | 조선대학교 신문방송학과 교수
미디어와 문화연구, 정체성과 테크놀로지, 영상 커뮤니케이션, 일상의 삶과 윤리적 가치의 문제 등을 연구하고 가르치는 일을 한다.
“얘가 말이 짧네요?”
이는 몇 년 전까지 내가 사용하던 운전용 네비게이션에 대해 사람들이 자주 던지곤 했던 말이다. 나는 안내음성을 간편 모드로 설정해놓았었다. 예를 들어 “200미터 앞에서 좌회전하세요”가 아니라 “200미터 앞 좌회전”이라고 말하는 방식이다. 나는 이런 방식이 더 간편하고 명확한 안내라 좋다고 생각했지만, 다른 사람들은 생각이 달랐던 모양이다. ‘말이 짧다’거나 ‘건방지게 들린다’는 의견도 있었고‘기분 나쁘 다’는 의견도 있었다.
생각해보면 우리는 참으로 공손한 말들에 둘러싸여 있다. 정확히 말하자면 공손하게 입력된 기계음들에 익숙해져 있는 것이다. 밥을 저으라고 안내해주는 밥솥부터 소위 스마트폰 스피커라고도 불리는 음성인식장치에 이르기까지, 그것이 아무리 사람의 목소리처럼 들린다 해도 우리는 기계가 인간에게 불손하게 대하거나 반말을 던지는 일을 좀처럼 경험하지 않는다. 실제로 음성인식장치의 광고들은 내가 필요한 정보를 척척 알아내어 싹싹하게 알려주고 내가 외롭거나 힘들 때는 위로와 격려를 아끼지 않는 친절한 친구를 보여준다. 인공지능 시스템이 어쩌면 인간보다 더 인간다운 나의 동반자가 될 수 있다는 꿈을 꾸게 해주는 것이다.
이런 일반적 환경과는 달리 싹싹하기는커녕 ‘말이 짧은’ 나의 네비게이션에 대해 사람들이 낯설어했던 것도 어쩌면 이상한 일은 아닐 것이다. 다만 내가 궁금하게 여겼던 점이 있다. 왜 우리는 인간의 목소리로 구현된 기계 시스템에 대해 편하고 만만하게 명령을 내리면서도 그에 상응한 방식으로 대답하는 기계 시스템에 대해서는 기분 나쁘다고 느끼는 것일까? 시중에 출시된 음성인식장치들은 인간과 비슷한 수준으로 사고하는 인공지능임을 천명하고 있는데, 그렇다면 인간처럼 상호 존중의 원칙에 소통하는 방식을 채택할 수도 있지 않았을까? 어떤 이유에서 인간이 아무리 험한 말을 할 때라도 인공지능 장치는 한결같이 공손하고 저항 없는 대답을 내놓는 것일까? 그리고 음성인식장치들은 어째서 늘 상냥하고 젊은 여성의 목소리로 나에게 말을 걸어오는 것일까?
그러나 이런 의문들은 여러 현실적인 상황 속에서 대수롭지 않게 넘어가기 일쑤다. 어쩌면 기계와의 관계에서는 말할 것도 없이 이미 인간 사이에서도 그런 비대칭적인 관계를 많이 마주치기 때문일 것이다. 자신의 비서에게 마치 자신의 종이라도 된 양 무례하게 구는 사장님들이 그렇고, 돈을 내고 상품이나 서비스를 구매하면서 판매자를 자신의 시종처럼 하대하는 소비자들이 그렇다. 그러한 무례함은 상대가 약자일수록 더 명확하고 가혹하게 전달되는 것 또한 현실이다. 아무리 인공지능 시스템이라고는 하지만 엄연히 우리가 살아가는 사회의 빅데이터를 기반으로 만들어진다. 현실에서 일어나는 불평등한 관계가 그렇게 비일비재하다면, 인공지능 역시 그런 현실을 반영할 수밖에 없다.
인공지능 방식으로 구현되는 각종 장치와 서비스들이 주로 여성의 외모나 목소리로 표상되는 이유에 대해서, 학계와 업계에서는 여러 이유를 든다. 기술적으로 더 유용하다거나 문화적으로나 심리적으로 더 받아들이기 좋다거나 하는 등의 이유다. 그러나 아직은 인공지능 시스템의 개발이 단순한 명령이나 지시를 전달하는 일에 집중되어 있고, 시장의 목적과 소비자의 편리에 맞게 인공지능 상품을 설계한다는 것은 곧 기존의 사회적인 편견을 그대로 안고 간다는 의미이기도 하다. 인공지능 시스템은 인간과 사회의 상식과 판단에 따라 데이터를 학습하고, 그 학습된 결과는 사회의 편견을 유지하거나 강화하는 방향으로 나타난다. 출시된 인공지능 장치들에서 여성의 목소리나 모습이 많이 구현되는 까닭은, 현재의 기술 수준에서 그 장치들의 역할이 전통적으로 여성의 영역이라고 여겨졌던 일에 머물고 있기 때문이다. 단순하게 말하자면, 여성의 목소리로 구현된 음성인식장치는 ‘개인 비서’나 ‘집사’나 ‘하녀’의 역할을 대신하고 있으며, 이는 사회에서 일어나고 있는 불평등의 반복에 지나지 않는다.
인공지능 기술을 활용해 특정 인물의 실제 얼굴을 원하는 영상에 합성하는 딥페이크(Deepfake) 기술이 처음 이슈가 되었을 때, 이 기술이 가짜 뉴스나 경제적 사기 목적으로 악용될 것을 우려하는 목소리가 컸다. 그러나 현재 딥페이크 기술은 사회적 약자를 약탈하고 착취하는 일에 더 자주 사용되고 있는 것처럼 보인다. 최근 네덜란드의 사이버 보안 관련 회사가 내놓은 연구보고서에 따르면, 2019년 전 세계의 딥페이크 영상 중 약 96% 정도가 포르노로 소비되고 있으며 그중에는 상호 합의에 의하지 않은 성착취 영상이 다수를 차지한다고 한다.
인간은 대체로 다른 인간을 대하는 방식으로 컴퓨터와 기계를 다룬다. 물론 그 인과관계에 대해서는 여전히 논쟁 중이다. 인간이 기계를 인간처럼 대하기 때문에 기계가 점차 인간과 비슷한 형상을 지니도록 개발되는 것인지, 아니면 기계가 점차 인간과 비슷한 형상을 지닌 모습으로 만들어지기 때문에 인간이 기계를 인간처럼 대하는 것인지에 대한 문제 말이다. 인공지능 음성인식장치나 딥페이크와 같은 기술은 이 세상에 변하는 것과 변하지 않는 것이 있다는 중요한 깨달음을 준다. 변한 것은 인간의 음성이나 얼굴을 담은 기술적 기록은 ‘진짜’일 것이라는 오래된 믿음이다. 반면 변하지 않은 것도 있다. 진짜처럼 보이고 들리도록 합성되어, 상품처럼 거래되는 대상이 주로 여성 등 사회적 약자라는 점이다. 인간과 기계의 경계가 흐려지는 이 시대에, 인간의 목소리와 몸을 한 기술들은 그렇게 인간 사회의 모순과 불평등을 반복하고 있다. 우리가 애써 노력하지 않으면, 제아무리 기술이 발전한다 해도 그런 문제들이 저절로 사라지지는 않을 것이다.
댓글을 작성하려면 로그인이 필요합니다.