바야흐로 딥보이스 전성시대다. 딥보이스를 비롯한 생성형 인공지능은 이제 우리의 삶과 떼려야 뗄 수 없는 관계가 돼간다. 이는 곧 우리가 보고 듣는 것이 진짜인지 가짜인지 끊임없이 의심해야 하는 세상이 찾아왔다는 뜻이다. 사실 여부 판단이 쉽지 않은 방대한 정보의 늪에서 지금의 제도로는 변화하는 세상을 따라갈 수 없다.

오늘날 우리나라는 IT 강국이라는 말이 무색하게도 인공지능 관련 지원과 법적 기반이 부족하다. AI 기술의 주도권을 잡기 위한 정부 차원의 대규모 지원을 펼치는 동시에 관련 부작용과 역기능을 최소화하기 위한 법적 기반을 마련하고 있는 몇몇 강대국과는 다른 행보다.

그런 상황 속 딥보이스를 활용한 각종 범죄 방식은 빠르게 정교해지고 있다. 하지만 최근 국회에서 논의되고 있는 인공지능 관련 법안도 안전과 투명성 확보보다는 기술의 진흥에 무게가 실려있다. 국민을 범죄로부터 보호하기 위한 필수 규제는 부족한 것이 현실이다. 게다가 이 법안마저도 국회 문턱을 넘길 수 있을지는 불투명하다.

법이 제정된다 해도 그것은 첫걸음에 지나지 않는다. 우리 개인도 진짜와 가짜를 구별하는 능력을 기르고 디지털 정보를 비판적으로 해석하고 판단하는 능력인 ‘미디어 리터러시’를 갖춰야 한다. 이미 사회적인 문제로 대두된 가짜뉴스는 딥보이스를 통해 더욱 위협적으로 변화했다. 지난해 우크라이나 대통령이 전쟁에서 항복을 선언하는 영상이 등장했는데 이는 딥페이크와 딥보이스를 활용해 조작된 것이었다. 해당 영상은 많은 이들에게 혼란을 주었다. 이러한 가짜뉴스는 소셜미디어에 익숙한 Z세대가 특히 취약하다. 지난 2016년 스탠퍼드 연구팀은 10대가 온라인 정보의 신뢰도를 판단하는 데 매우 취약하다는 연구 결과를 발표했다. 이런 상황에 맞춰 지난달 13일 미국 캘리포니아 주지사는 교육과정에 미디어 리터러시 교육 프로그램을 추가하는 법안에 서명했다. 이렇듯 우리나라 또한 미디어 리터러시 교육의 필요성에 대해 고민할 때다.

딥보이스와 같은 기술의 발전은 양날의 검과 같다. 다양한 활용 방안과 동시에 다양한 문제점을 가지기 때문이다. 우리 사회가 기술의 발전을 통해 더 나은 사회로 나아가기 위해선 법적 기반을 마련해야 한다. 또 이와 동시에 기술의 발전을 두려워하지 않고 그것을 이해하고 적응하는 능력을 기르는 것이 필요할 것이다.

 
저작권자 © 아주대학보 무단전재 및 재배포 금지