인공지능(AI) 기술이 대중화하면서 사실을 왜곡하거나 과장한 정보가 SNS를 통해 무분별하게 퍼지고 있다. 사회적 혼란을 줄이기 위한 대응이 필요하다는 지적이 나온다.
지난 23일 춘천의 한 카페로 승용차가 돌진한 사고가 발생하자 SNS에는 현장을 묘사한 AI 생성 이미지와 사건 내용을 담은 게시글이 잇따라 올라왔다. 일부 게시물은 소방관·경찰관·시민 등의 이미지를 인위적으로 생성해 과장된 장면을 연출하거나 사실과 다른 정황을 덧붙였다. 더욱이 AI 활용 여부를 작게 표기하거나 아예 표시하지 않아 이용자들의 혼란을 키웠다.
또 3·1절을 전후해 역사적 인물까지 왜곡의 대상이 되기도 했다. 온라인상에서 유관순 열사와 안중근 의사를 희화화하거나 조롱하는 AI 악성 콘텐츠가 조회수 10만 회를 넘기는 등 빠르게 확산되며 누리꾼들의 공분을 샀다.
AI 기술은 이미지·음성·영상 등 다양한 콘텐츠를 빠르게 생성할 수 있어 사실 여부가 확인되기 전에 정보가 확산되는 경우가 많다. 특히 자극적인 내용일수록 왜곡된 정보가 이용자들의 정보 신뢰를 훼손할 가능성이 크다는 우려가 나온다.
전문가들은 플랫폼 기업의 사회적 책임 강화와 함께 이용자 스스로 정보를 비판적으로 판단할 수 있는 AI 리터러시 교육이 필수적이라고 강조한다.
김활빈 강원대 미디어커뮤니케이션학과 교수는 “AI가 어떤 방식으로 콘텐츠를 생성하는지, 기존 콘텐츠와 어떤 차이가 있는지에 대한 이해를 돕는 교육이 초등학교 저학년부터 이뤄져야 한다”며 “AI 생성 콘텐츠임을 명확히 표시하도록 하는 제도적 장치를 마련해 이용자들의 혼란을 줄여야 한다”고 조언했다.
















