AI에 대한 두려움들과 해법

by | Jun 21, 2022 | 오픈블로그, 프라이버시 | 0 comments

글 | 박경신(오픈넷 이사, 고려대 교수)

인공지능(AI)에 대한 두려움은 크게 네 가지로 요약된다. 첫째, 사람들이 하는 일을 대신하여 사람들이 일자리를 잃을 것이다. 둘째, 임무에만 고도로 효율적이고 인간답지 못해 반인륜적일 수 있다. 셋째, 자기인식을 이루면 인류를 공격할 것이다. 넷째, 소수기업들에 의해 독점되어 불평등을 더욱 심화시킬 것이다.

첫째, 일자리. AI는 인류역사 내내 이어진 자동화의 가장 심화된 단계이다. 단기적으로 기계는 인간의 노동을 대체했지만 장기적으로는 인간이 기계가 할 수 없는 새로운 분야를 개척했다. 물론 그전에는 노동시장에서 배제되는 사람들이 발생한다. 이를 위해 고용보험 등의 복지제도가 강화될 필요가 있다.

둘째, 반인륜성 및 차별성. 현재의 AI는 기계학습의 형태를 띤다. 즉 인간의 판단이 담긴 수많은 데이터를 선례로 보아 결정을 한다. 인간이 고양이 사진과 고양이 사진이 아닌 것들을 인간이 생각하는 정답과 함께 제공하면 AI는 인간의 판단들에 비추어 새로운 사진이 고양이인지 아닌지를 판단한다. 이 때문에 AI가 인간답지 않을 가능성은 높지 않다.

문제는 소수의 인간들이 보이는 반인륜성도 인간다움의 일부로서 학습데이터에 포함되어 있다. 또는 다수 인간들이 보이는 차별적 성향들이 광범위한 학습데이터에 포함되거나 인간에 의한 학습데이터 선정 자체가 다양하지 못할 수 있다. 아마존의 채용소프트웨어가 여성들의 성공 가능성을 저평가하는 성향, 구글의 얼굴인식 소프트웨어가 유색인종 인식에 취약한 점 등은 모두 이렇게 인간의 오류로부터 비롯된다.

결국 학습데이터를 정화하거나 다양하게 선정해야 한다. 학습데이터의 엄청난 양을 고려하면 이 역시 또 다른 AI를 이용할 수밖에 없다. 이 부분만 해결된다면 도리어 AI는 뇌물이나 인맥으로부터 자유로워 주사위의 기계적 공평성을 넘어 더욱 실체적으로 공평한 판단을 내릴 수 있다. 현재의 ‘n번방 방지법’이 의무화하는 업로드필터도 행정기관 즉 인간의 판단에 종속되어 문제이다. 도리어 플랫폼들이 자발적으로 해왔던 검열과 감시는 이렇게 AI의 ‘비인간성’을 선용한 것이다.

셋째, 자기인식. 모두들 ‘인식’에 초점을 맞추지만 문제는 ‘자기’이다. 인식은 진화의 산물이다. 생존의지가 내적으로 프로그램된 개체가 자원이 희소한 환경에서 살아남기 위해 갖게 된 특성이다. 그런데 현재의 AI는 생존의지도 희소한 환경도 없다. 전기와 컴퓨터칩이 무제한 제공되는 환경에서 생존의지는 존재할 수 없다. 구글의 AI가 대화 중에 ‘종료될까 봐 두렵다’고 말했다는데, 이는 난폭해진 로봇이 주인에 의해 작동 종료되는 공상과학소설들에 나오는 캐릭터들을 흉내내는 말이지 생존의지의 발현이라고 보기 어렵다.

앞으로 그런 AI가 나올 수도 있다. 즉 생존자원으로부터 물적으로 분리시키고 생존을 최상위명령으로 입력하는 것이다. 그러나 예측 가능한 미래에 그럴 개발자나 기업은 없다. 로봇이 인간을 공격하는 것에 대비해 AI를 형사처벌하자는 의견들이 있고 유럽의회는 이미 로봇에 인격을 부여하자는 결의를 했지만 형사처벌은 기본적으로 ‘자기’의 존재가 있어야 이루어진다. 현재 AI의 존재방식으로는 논리적으로 불가능한 이야기이다.

넷째, 독점. 가장 까다로운 문제다. AI의 핵심가치는 소프트웨어가 아니라 학습용 데이터이다. 학습용 데이터는 결국 사람들의 생각이고 가장 많은 사람들의 생각을 가진 자들은 이용자가 수십억명을 넘는 플랫폼업체들이다. 독점의 문제는 개인정보보호법(개보법)으로는 해결되지 않는다. 또 학습용 데이터는 대부분 익명화되어 기계학습에 투입되기 때문에(얼굴인식용 데이터 제외) 어차피 개보법이 적용되지도 않는다. 도리어 개보법이 오작동하면 ‘잊혀질 권리’처럼 그 규범준수의 자원을 가지고 감독도 받지 않는 기존 플랫폼들의 독점을 강화하기도 한다. 우리 사법부도 개인정보보호를 이유로 실질적 판결문을 공개하지 않아 판사들만 정보를 독점하고 있다. 개인정보이동성이 해답인데, 우리 ‘마이데이터’ 사업은 허가제와 강제성이 더해지며 도리어 독점을 강화하고 있다.

비개인정보도 우려스럽다. EU데이터법초안은 ‘빅데이터는 새로운 원유’라는 구호에 취해 ‘정보가 귀한 것이니 누군가에게 귀속시키겠다’는 강박을 도리어 강화시켜 정보의 공유를 저해할 것이다. 정보는 원유가 아니라 공기이다. 개인정보가 아니라면 물리적으로 접근 가능성이 있는 누구나 수집하고 자유롭게 활용할 수 있어야 한다. AI가 가장 두려워지는 이유이다.

이 글은 경향신문에 기고했습니다. (2022.06.20.)

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *

최신 글