오픈넷은 2024년 2월 10일 프랑스 파리에서 열린 ‘AI 액션 서밋(Paris AI Action Summit)’에 참석해, 전 세계 각국 정상들과 함께 인공지능(AI)의 미래와 정부의 역할에 대해 논의했다. 오픈넷의 박경신 이사는 그랑팔레(Grand Palais)에서 진행된 주요 세션과 엘리제궁(Elysee Palais)에서의 정상 만찬 등 다양한 양자 교류를 통해, AI 시대에 정부가 어디까지 개입해야 하며, 어디까지 개입해서는 안 되는지에 대한 방향을 제시했다.
박 이사는 AI를 인간의 정신적 활동(사고, 추론, 판단 등)을 자동화한 기술의 극단으로 보았다. 이러한 정신적 활동은 그 자체로는 고유한 해악이 없고, 오히려 인류에게 더 큰 이익을 가져다주는 경우가 많다. 때문에 정부는 오직 AI가 고유한 해악을 유발하는 경우에만 개입해야 하며, 무분별한 윤리적 통제를 시도해서는 안 된다고 강조했다. 정신적 활동이 고유한 위험성을 가지는 것은, 그것이 핵에너지, 무기, 약물 등과 결합될 때뿐이며, 이때에만 정부의 규제가 정당화될 수 있다는 것이다.
박 이사는 현재 AI가 지닌 주요한 위험요소로는 ▲훈련 데이터에 대한 독점 ▲인간의 차별성을 강화하는 알고리즘 ▲싱귤래리티 이후의 존재적 위협 등을 꼽았다. 전기 소모, 노동 대체와 같은 부수적인 문제들은 환경적, 경제적 관점에서 접근해야 할 사안이다. 이 가운데, 훈련 데이터 독점은 데이터 보호 기관을 통한 규제가 필요하며, 훈련 데이터에 내재한 차별성과 불공정성은 정부의 직접적 개입이 아니라 시민사회 내 윤리적 논의를 통해 해결해야 한다고 주장했다. 이러한 ‘훈련 데이터 정제(sanitization)’ 작업은 현재 오픈넷을 포함한 시민단체들이 수행 중이며, 이는 정부가 개입해서는 안 되는 영역이라고 강조했다.
반면, 박 이사는 AI가 자율적 존재로 진화하는 이른바 ‘진정한 싱귤래리티’가 도래할 경우, 정부의 강력한 규제가 반드시 필요하다고 밝혔다. 그는 진정한 의미의 싱귤래리티란 AI가 인간과 같은 조건, 즉 유한한 수명, 자원 부족, 신체 분리, 자기 보존 본능 등을 가지게 될 때 실현된다고 설명했다. 그러나 현실에서 기업들이 이러한 AI를 개발하지 않는 이유는, 그렇게 만들어진 AI는 더 이상 기업의 통제를 벗어나며, 기업의 이익 추구와 상충되기 때문이다.
그럼에도 불구하고, 일부 기업들이 향후 이러한 조건을 갖춘 AI를 현실 세계(in vivo)에 실험적으로 투입할 가능성이 있으며, 이는 마치 인간 대상 실험과 같은 윤리적 문제를 동반하게 된다. 따라서 이러한 ‘자율 AI 실험’은 반드시 IRB(윤리심의위원회) 수준의 제도적 통제를 통해 이루어져야 하며, 이 부분에서 정부의 적극적인 개입이 요구된다고 주장했다.
또한 박 이는 인간이 AI가 생성한 이미지에 대해 ‘부자연스럽다’고 느끼는 현상을 설명하며, AI가 인간과 같은 인지 조건을 갖추지 못했기 때문이라고 분석했다. 인간은 과거의 경험과 기억, 상황적 맥락을 바탕으로 대상을 인식하지만, AI는 수많은 데이터를 바탕으로 가능성의 조합을 통해 이미지를 생성한다. 이로 인해 인간의 시각에 익숙하지 않고, 이질적인 이미지들이 나오게 되는 것이다. 이러한 차이점 역시, AI가 인간과 같은 조건에 처하지 않았기 때문이며, 싱귤래리티의 핵심은 결국 AI가 인간과 유사한 존재 조건을 내면화하는 데 있다고 설명했다.
마지막으로 박 이사는 AI의 규제 방향에 대해 두 가지를 분명히 구분해야 한다고 강조했다. 첫째, 훈련 데이터의 윤리성 문제는 시민사회가 주도적으로 정제하고 정부는 개입하지 않아야 한다. 둘째, AI가 자율성과 생존 본능을 가지는 단계로 진입할 경우, 정부는 철저한 제도적 통제를 통해 인류의 안전을 확보해야 한다. 이는 핵에너지와 같은 고유한 해악이 있는 기술을 규제하는 것과 같은 논리로, AI 역시 특정 상황에서 강력한 규제가 불가피하다는 것이다.
오픈넷은 이러한 구분을 바탕으로, 인공지능 시대에도 인권과 표현의 자유를 보장하면서, 실질적 위험에는 선제적으로 대응하는 정책적 균형이 필요하다는 점을 국제사회에 강조했다.
0 Comments