최근 1년 동안, AI를 이용한 성적 학대 피해 아동이 수백만 명에 달한다는 충격적인 보고가 나왔습니다. 유엔아동기금(Unicef)의 조사에 따르면, 최소 11개국에서 120만 명 이상의 아동이 AI를 통해 조작된 성적 이미지의 피해를 입은 것으로 나타났습니다.
심각한 현실과 미래의 그림자
다니엘 카르데펠트 빈테르(Daniel Kardefelt Winther) 유니세프 연구 책임자는 “단지 11개국에서만 이처럼 많은 아동이 피해를 입었다는 사실은, 이 문제가 얼마나 심각한지, 그리고 우리가 신속하게 해결책을 찾지 못한다면 앞으로 더욱 심각해질 것임을 보여준다”고 경고했습니다. 그는 “이미지가 실제가 아니더라도, 이는 심각한 성적 학대”라며, “극도로 현실적이어서 차이를 구분하기 어려울 수 있으며, 성적 학대로 인한 수치심, 죄책감, 그리고 모든 고통스러운 감정들이 그대로 나타난다”고 설명했습니다. 정서적인 측면에서 아동에게 미치는 결과는 매우 심각할 수 있다고 덧붙였습니다.
추가 범죄의 도구로 전락
AI로 만들어진 이미지는 또한, 협박과 같은 추가적인 범죄에 악용될 수 있습니다. 빈테르 연구 책임자는 “성(sex)에 대해 더욱 금기시되는 국가에서는 이 문제가 매우 수치스러운 일이 될 수 있다”며, “도움을 요청한 아동이 배척당하고 괴롭힘을 당하는 사례도 있었다”고 밝혔습니다.
다차원적인 문제
그는 이 문제가 여러 측면을 가지고 있다고 설명했습니다. 가해자는 아동 성폭력에 몰두하는 성인일 수도 있지만, 다른 아동일 수도 있습니다. 단순히 괴롭힘을 목적으로, 또는 재미로 누드 사진을 만드는 급우가 있을 수 있다는 것입니다. 빈테르 연구 책임자는 “피해를 입는 사람에게는 절대 재미있는 일이 아니다. 이는 매우 심각하며, 일부 아동과 청소년은 이 문제의 심각성을 제대로 인지하지 못할 수 있다”고 강조했습니다.
해결을 위한 제언
다니엘 카르데펠트 빈테르 연구 책임자는 “단순한 해결책은 없을 것”이라고 말하며, 유니세프가 문제 해결을 위해 제안한 세 가지 조치를 제시했습니다.
- 첫째, 부모는 기술에 대해 인지하고, 피해 아동을 어떻게 지원해야 하는지 알아야 합니다. 학교 역시 이러한 유형의 학대가 무엇을 의미하는지 이해해야 합니다.
- 둘째, 이러한 종류의 앱을 금지하거나, AI를 사용하여 학대 자료를 생성하는 것을 금지하는 형태의 법률이 필요합니다.
- 셋째, 기술 산업은 지금까지 해온 것보다 훨씬 더 큰 책임을 져야 합니다. AI 앱 또는 AI 지원 앱을 개발하는 사람들은 어떻게 악용될 수 있는지 진지하게 고민해야 합니다.