지난 3월 28일, 과학기술정보통신부가 발표한 ‘2023 인터넷이용실태조사’에 따르면 우리나라 국민 중 50.8%는 AI(인공지능, Artificial Intelligence) 서비스를 이용한 경험이 있는 것으로 나타났다. 이는 32.4%였던 2021년 통계와 비교해 보면 무려 18.4%나 증가한 것으로, 2명 중 1명은 AI를 써봤다는 결과를 보여준다. 이처럼 많은 사람이 경험했듯이 AI는 우리의 일상에 큰 변화를 불러왔다. 복잡한 작업도 간단한 대화로 해결할 수 있으며, 스마트폰이나 여러 전자기기 대부분에 탑재되어 ‘휴대용 비서’ 역할을 톡톡히 해내고 있다.
그러나, 발전하는 AI 기술에 비해 인간의 자율적 사고능력은 감소하는 부작용이 나타났다. AI가 제공하는 정보를 지나치게 맹신해 버림으로써 잘못된 정보를 받아들이게 되는 것이다. 사전 학습 데이터에 기반하여 확률적 추론으로 답변을 제공하는 AI는 정확한 정답보단 그럴싸한 답을 주는 것에 초점이 맞춰져 있다. 그렇기에 AI가 사용자에게 주는 답이 반드시 신뢰할 수 있는 정답은 아니다. 더불어 사실이 아닌 정보를 사실처럼 답하는 할루시네이션(환각) 현상이나, 편향적이거나, 오염된 데이터를 학습하여 제공하는 부정확한 정보는 사용자의 혼란을 키울 가능성이 크다.
그럼, AI가 제공한 정보를 맹신하지 않고 분별하려면 어떻게 해야 할까? 정답은 ‘AI 리터러시’를 기르는 것이다. AI 리터러시는 AI를 다루는 능력을 넘어, 제공한 정보를 비판적으로 평가하고 윤리적 관점에서 수용할지 거부할지를 판단하는 능력을 말한다. ChatGPT 출시 후 고작 2년이 지났을 뿐인데 지구촌은 분야와 기능이 각기 다른 수많은 AI와 만나고 있다. 넘쳐나는 AI에 대해 사용자들이 어떻게 접근할 것인가 또는 어떻게 사용할 것인가의 기준도 모호하다.
AI 개발과 이용에 대한 기준은 집단적·규범적 강요에 의한 규제보다는 개인의 몫으로 남겨져야 한다. 개인의 개발과 사용을 모두 통제하는 것은 원칙적으로 불가능하기 때문이다. 따라서 이들 스스로가 도덕적인 소양을 갖춰야 한다. 우리의 교육은 이러한 방향으로 이뤄져야 하며, AI 리터러시는 이를 위한 밑그림과 같다.
지금의 AI는 AGI(Artificial General Intelligence)로 발전할 것이다. 종합적인 인지와 판단 그리고 행동까지 이어지는 복잡한 과정을 수행할 AGI는 AI와 확연히 다른 세상을 만든다. 우리는 AI 세상에서도 격차를 느끼며 살고 있다. 그리고 점점 그 격차는 커진다. AGI 시대에서는 이러한 비가역적인 격차가 흡사 전근대 시대의 신분제와 같은 기능을 할 수도 있다. 미래 사회에 대한 불안을 극복할 방법은 AI 리터러시가 유일하다. 더욱 적극적인 자세로 변화하는 세상에 도전하는 청년들의 AI 리터러시 정복을 기대해 본다.