글 | 손지원(오픈넷 변호사)
과학기술정보통신부는 인공지능 윤리를 확산하기 위한 기업의 자율적 활동 방안을 논의하고자 정보통신정책연구원(KISDI), 한국정보통신기술협회(TTA)와 함께 8월 26일(금) 서울 중구 포스트타워에서 제3차 윤리정책 포럼을 개최했다.
인공지능 윤리정책 포럼은 인공지능의 윤리적 개발과 활용을 위한 논의를 촉진하기 위해 올해 2월 처음 출범하였다. 산업계를 비롯하여 인공지능, 윤리, 교육, 법제도, 공공영역 등 다양한 분야의 전문가 30명이 제1기 포럼위원으로 활동하고 있으며, 오픈넷 손지원 변호사는 본 포럼 교육 분과에 참여하고 있다.
이번 포럼은 3개 인공지능 스타트업이 인공지능 윤리를 어떻게 실천하고자 노력하고 있는지를 소개하는 자리였다. 인공지능 챗봇 ‘이루다’를 개발한 ‘스캐터랩’, 인공지능 기반 영상인식 솔루션 등을 개발한 ‘알체라’, 인공지능 기반 글쓰기 솔루션 등을 제공하는 ‘뤼튼테크놀로지스’가 인공지능 서비스를 개발하는 과정에서 어떠한 고민을 가지고, 어떻게 노력하였는지 그 경험을 공유하였다.
본 포럼에서 지정토론을 맡은 손지원 변호사는 ‘스캐터랩’이 마련한 ‘인공지능 챗봇 윤리점검표’ 최종안에 대해, AI ‘챗봇’ 서비스에 있어서는 기반 데이터와 제공하는 서비스 내용 모두가 ‘대화’라는 점에서 ‘통신의 비밀과 자유’라는 기본권의 보호가 가장 큰 이슈인데, ‘개인정보’ 보호만을 명시할 뿐, ‘통신의 비밀과 자유’, ‘대화 내용’에 대한 보호가 명시되지 않고 있는 부분이 아쉽다는 점을 지적하며, 추후 이용자-이루다와의 대화 데이터를 어떻게 다루고 어떻게 보호할 것인지, 발화 자율규제에 있어서 필연적으로 수반되는 이용자들의 ‘통신의 비밀과 자유’의 제한을 어떻게 최소화할 것인지 등을 명시하는 것이 좋을 것이라는 의견을 제시했다. 또한 영상인식, 얼굴인식 AI 기술 개발 업체인 ‘알체라’에 대해서는 사내 ‘파이어스카웃’이라는 재난관리 솔루션 프로그램에만 인공지능 윤리 평가를 할 것이 아니라, 인권 침해 위험이 높은 얼굴인식 기술 프로그램에도 인공지능 윤리 기준 수립 및 평가를 적극적으로 진행해줄 것을 요청했다. 또, 기업이 AI 윤리 기준을 수립함에 있어서는 추상적이고 선언적인 문장보다는 실체적인 시스템을 구축하였는지 여부 등으로 구체화하는 것이 더 진보된 방향일 것이라는 점과, 어떠한 경우에도 AI 기술의 오류나 부작용은 필연적으로 발생할 수밖에 없는 만큼, 결국 서비스의 한계와 위험성에 대해 스스로 알려 이용자 단계에서 이를 적절히 수용하여 폐해를 최대한 방지하도록 하는 ‘투명성’ 확보가 가장 중요하다는 점, 이것은 기업이 이용자에 대한 AI 윤리 교육, 디지털 리터러시 교육을 하는 역할도 겸할 수 있다는 점 등을 강조했다.
또한 AI 윤리 확보를 위한 기업의 자율적 활동의 활성화 방안에 대해, 기업 내·외부로 다양한 분야의 전문가들로 구성된 상시적 검증, 감시 기구와 이용자와의 소통 창구를 두고, 이들과의 상시적 소통을 통해 개별적 문제에 대해 유연하고 신속하게 대응할 수 시스템을 마련하는 것이 중요하며, 정부는 이런 창구나 기구를 마련할 여력이 없는 스타트업에 이를 지원해주는 방향을 모색해야 한다고 제안했다. 또한 결국 기업을 움직이는 것은 이용자, 소비자의 반응이라는 점을 강조하며, 일종의 소비자 운동 차원에서 각 기업들이 AI 윤리 확보를 위해 얼마나 노력하고 있는지에 대한 기업 비교 평가 연구 프로젝트를 민관이 협력하여 진행하는 방안도 제안했다.
0 Comments