[토론문] “인공지능과 젠더 문제” – AI 윤리 성찰 포럼 (2019.12.10.)

2019. 12. 10. 유네스코한국위원회와 HY 과학기술 윤리·법·정책 센터가 주최한 “AI 윤리 성찰 포럼”에 오픈넷 김가연 변호사가 토론자로 참가해 인공지능과 젠더 문제에 대해 이야기했습니다.

[토론문] 인공지능과 젠더 문제

김가연 오픈넷 변호사

사단법인 오픈넷은 자유, 개방, 공유의 인터넷이라는 가치를 옹호하자는 취지 하에 2013년에 설립된 비영리 시민사회단체입니다. 표현의 자유, 프라이버시, 오픈데이터, 망중립성 등 정보인권 분야에서 활발하게 활동하고 있습니다. 발제를 맡은 이상욱 교수님께서 오픈넷의 이사로 계시기도 합니다.

오픈넷에서는 한 3년 전부터 인공지능과 윤리에 관한 논의를 관심을 갖고 지켜보면서 여러 국내외 관련 세미나에 참석을 하고 토론회를 주최하는 등 동향을 파악하고 있습니다. 내년 1월에는 하버드 대학교 버크맨 클레인 센터 등과 함께 인공지능과 윤리에 관한 국제 세미나를 개최할 예정입니다. 다만 아직 국내에서 인공지능이 정보인권에 직접 영향을 미치는 유의미한 사례가 발생하지는 않아서, 미래를 대비한 연구나 예측을 하는 연구소나 학계와 달리 활동 중심의 시민사회단체로서는 관련 논의를 관망하는 수준인 것 같습니다. 그렇지만 인공지능 개발에 필수적인 빅데이터의 활용에 수반되는 개인정보 보호의 문제에 대해서는 활발하게 목소리를 내고 있으며, 얼굴인식기술 등이 국가감시 고도화에 악용될 가능성을 항상 경계하고 있습니다.

지금까지 발표된 여러 원칙들을 비교해보면 큰 틀에서 몇 가지 공통되는 핵심 가치를 찾을 수 있고 이는 발제문에서 잘 정리하셨다고 생각합니다. 이러한 원칙들이 앞으로 유네스코에서 성안할 윤리 규범에 잘 반영되길 바랍니다. 또한 유네스코에서 기존의 시도와 달리 윤리 전문가 및 여러 분야의 전문가들을 모아 워킹 그룹을 꾸려 논의를 시작하고, 젠더나 아프리카 대륙 같이 논쟁적인 주제(mandate)를 다루기로 한 것은 매우 바람직하다고 생각합니다. 일례로 지난 11월 방송통신위원회에서는 「이용자 중심의 지능정보사회를 위한 원칙」을 발표했는데, 이를 논의하는 자문단에 기업과 학계만 참여를 한 것으로 알고 있습니다. 정부 차원의 논의에는 당연히 이용자의 입장을 대변하는 시민단체가 참여했어야 하는데 오픈넷은 전혀 초대를 받지 못해 유감스럽습니다. 다양성과 전문성을 함께 추구하는 유네스코의 방식이 훨씬 바람직하다고 생각됩니다.

지금의 AI는 우리 현실을 반영하는 거울로서 우리가 가진 편견 등을 그대로 답습하고 있습니다. 결국 AI와 윤리는 AI를 개발하고 관리·감독하는 인간을 감독하는 원칙에 대한 문제라고 생각합니다. 발제자께서 개발자나 이용자 교육의 필요성을 언급하셨는데 매우 중요한 지적인 것 같습니다. 그리고 현재까지의 논의에서 AI와 젠더 문제는 간과되고 있는 면이 있어서 더 비중있게 다뤄져야 한다고 생각합니다. 그런 점에서 유네스코의 방향성은 매우 바람직한 것 같습니다. 그리고 유네스코에서 올해 발표한 디지털 기술 성 격차 관련 <I’d Blush If I Could> 보고서도 매우 좋은 자료인데요, 보고서에서 다룬 인공지능 음성비서의 성정체성 관련 논의를 통해 AI와 젠더에 대해 간단히 말씀드리겠습니다.

애플 시리, 삼성 갤럭시 빅스비, 네이버 클로바, 아마존 알렉사 등 인공지능 음성비서 또는 스피커는 현재 우리에게 가장 친숙한 형태의 AI일 것입니다. 대부분 기본적으로 여성의 목소리를 가지고 있는데, 세계의 인공지능 음성비서 시장을 선도하는 기업들이 ‘여성 비서’를 내세우고 있기 때문입니다. 개발자들은 사용자들이 인공지능과 대화할 때 진짜 인간과 대화하는 듯한 느낌을 받을 수 있도록 만들기 위해 인공지능의 개성과 성장과정, 이력과 같은 세세한 ‘인간적인’ 면도 심혈을 기울여 디자인하는데, 이러한 정체성이 대부분 여성을 상정하고 만들어졌다고 합니다. 이렇게 여성형 음성비서가 압도적으로 많은 이유에 대해 크게 세 가지 가설이 있습니다.

첫 번째는 여성의 목소리를 선호하는 게 더 자연스럽다는 것입니다. 여러 연구에서 사람들은 여성의 목소리를 더 따뜻하게 느꼈다고 하고, 스탠포드 대학의 Clifford Nass 교수는 “인간의 뇌는 여성의 목소리를 좋아하도록 발달했다(“It’s a well-established phenomenon that the human brain is developed to like female voices.”)”라고 말한 바도 있습니다. 아마존과 마이크로소프트는 시장조사에서 일반 유저들이 여성 목소리를 더 선호한다는 것을 확인하기도 했습니다.

두 번째는 여성형 인공지능이 덜 위협적으로 느껴진다는 것입니다. 여성형 인공지능이 많은 이유가 대중문화에서 접한 남성형 인공지능의 위협적 성향 때문이라는 가설입니다. ‘2001: 스페이스 오디세이’ 등 SF 영화에서 남성형 인공지능은 살인을 저지르는 등 종종 매우 위협적으로 묘사되었습니다. 워싱턴 대학의 Gender, Women & Sexuality 학과의 Michelle Habell-Pallan 교수는 다수의 엔지니어가 일반인들이 새로운 기술을 위협적으로 느끼거나 거부감이 들게 하지 않도록 여성형의 인공지능을 채택하는 경향이 있다고 합니다.

하지만 가장 설득력 있는 가설은 성역할에 대한 고정관념의 영향을 받았다는 것입니다. 여성형 음성비서가 많은 이유에 대해 페미니스트들은 전통적으로 여성이 비서 역할에 자연스럽기 때문이라는 성역할 고정관념에서 기인한다고 봅니다. IT 업계 핵심 직종의 종사자 대부분이 남성이라는 것은 우리들에게 이미 익숙한 사실이며, 이를 고려한다면 음성비서가 여성으로 성별화되어 있다는 것이 IT 과학자들의 무의식 속 성편견의 반영물이라는 페미니스트들의 주장이 틀린 말은 아닐 것입니다. 앞서 언급한 유네스코가 발표한 보고서는 ‘시리’를 비롯한 음성비서들이 대부분 ‘젊은 여성’ 목소리를 기본값으로 설정해 수동적이고 소극적인 답을 내놓게 돼있어, 여성 역할을 수동적·소극적이며 명령자에 복종하는 역할에 한정해 젠더에 대한 편견을 강화한다고 지적했습니다.

이런 문제점이 단순히 AI 개발이나 활용에 적용되는 윤리를 강화한다고 해서 해결될 것 같진 않습니다. 결국 다른 모든 분야에서 여성의 인권을 보장하고 성평등을 이루어 나가기 위해 끊임없이 노력해야 하는 것처럼 AI 분야에서도 근본적으로 성격차를 줄이고 성평등을 이루어 나가는 노력이 필요합니다. 그런 면에서 젠더 문제에 관한 별도의 윤리 규범을 논의하기로 한 유네스코의 시도는 매우 바람직하다고 생각하며, 논의가 좋은 결실을 맺을 수 있도록 시민사회도 더욱 활발하게 의견을 내고 지지하도록 하겠습니다.

Print Friendly, PDF & Email