2024년 10월 17-18일 태국 방콕에서 NoC(The Global Network of Centers of Internet and Society)의 연례 학술 컨퍼런스가 열렸다. 오픈넷을 대표해 참석한 박경신 이사는 인공지능 기술의 개선과 규제에 있어 대학의 역할에 대해 논의했다(민주주의 보호에 관한 박경신 이사의 논의):
AI의 가장 큰 문제는 학습 데이터에 내재된 인간의 편견이 AI에 의해 증폭된다는 점이다. 대학은 이러한 문제를 해결하기 위해 중요한 역할을 할 수 있다. 우리가 교육해야 할 대상은 의식적인 존재이며, 이는 단순히 머신러닝 결과를 검열하는 방식이 아니라, 학습 데이터를 검열하는 방식으로 접근해야 한다. 세 가지 방법을 생각해볼 수 있다: (1) 산출물 검열, (2) 인간으로 대체, (3) 학습 데이터 정화.
학습 데이터를 정화하기 위해서는 AI가 따라서는 안 되는 부정적인 요소를 제거하기 위한 윤리적 기준을 적용이 필요하다. 윤리적 사상에 충실한 AI를 만들기 위한 논의의 장으로는 대학이 가장 적합하다. MIT의 Moral Machine은 이미 윤리적 질문에 대한 사람들의 답변을 수집하여 학습 데이터를 구축하고 있다. 예를 들어, 자율주행차가 노인과 젊은이를 동시에 발견했을 때, 누구를 피해야 할지를 판단하도록 하는 질문 등이 포함된다.
EU AI법은 높은 위험 인공지능군에 대해 인간의 통제를 요구한다. 그러나 이는 AI가 정보 시스템이라는 점을 간과한 것이다. AI는 정보를 기반으로 결정을 내리며, 실제로 해를 가하거나 위험을 생성하지 않는다. 예를 들어, 민간인과 군인을 구분하는 AI는 사용 목적에 따라 높은 위험이 될 수도, 낮은 위험이 될 수도 있다. 한국에서 AI의 가장 큰 위험은 딥페이크로, 이는 EU AI법에서 높은 위험으로 분류되지 않는다. AI와 그 산출물(정보)이 인간 행동의 광범위한 스펙트럼에 영향을 미칠 수 있다는 점을 제대로 이해하지 못하면, 네트워크 슬라이싱과 같은 잘못된 접근으로 이어질 수 있다. 예를 들어, 재난 상황에서 사용하는 앱은 특별한 재난 대응 앱이 아니라 WhatsApp과 같은 일반 앱들이다. AI도 마찬가지로 정보를 생성하며, 고위험 또는 저위험 AI라는 개념 자체가 잘못된 것이다. 특정 활동에 대해 인간의 통제를 요구하는 것은 AI 규제가 아니라 활동 규제일 뿐이다.
AI를 처벌할 수 있는가라는 질문도 제기되어왔는데, 이는 독립적으로 존재하는 개체로서 AI를 상정해야 가능한 문제로, 잘못된 질문임이 증명되었다. 학습 데이터에서 인간의 편향을 제거하지 않는 한, AI를 신뢰할 수 없다. AI가 광고를 보내거나, 유권자의 선택을 돕는 것조차 신뢰할 수 없다. 문제의 핵심은 학습 데이터를 정화하는 것이다. 이를 위해서는 윤리적 검토가 필요하며, 대학이 이러한 논의에 이상적인 장소이다.
0 Comments