SVD 보도에 따르면, 인공지능(AI)을 이용해 일반 사진을 나체 사진으로 변환하는 '누디파이(nudify)' 앱이 아동 성착취에 악용되는 사례가 빠르게 증가하고 있습니다.
AI 기반 앱의 위험성
아동권익단체 에크파트(Ecpat)는 이러한 앱들이 아동에게도 쉽게 사용될 수 있으며, 아동의 나체 또는 음란 사진을 생성하는 데 사용된다고 밝혔습니다. 이 앱들은 종종 성인용으로 광고되지만, '좋아하는 사람을 벗은 모습으로 보기'와 같은 문구를 사용하며 청소년을 대상으로 하는 것으로 보입니다. 에크파트의 조사관 요나스 칼손(Jonas Karlsson)은 "이러한 앱들은 어떤 사진이든 나체 사진이나 음란물로 만들 수 있다"며 "아동에게 사용하지 못하도록 하는 보호 장치가 거의 없다"고 지적했습니다.
스웨덴 내 증가하는 피해 사례
에크파트가 스웨덴 아동들을 대상으로 실시한 설문 조사 결과, AI 생성 이미지 유포 사실을 인지하고 있는 아동의 비율은 아직 낮지만, 단체에 접수되는 관련 상담 전화는 급증하고 있는 것으로 나타났습니다. 칼손 조사관은 "현재 일주일에 몇 건의 상담이 들어오고 있으며, 이 수치는 빠르게 증가하고 있다"고 말했습니다. 그는 또한 "우리와 아동들 모두 이 문제가 계속 커질 것이라고 예상한다"고 덧붙였습니다.
법적 규제 및 아동의 인식 변화
메타(Meta)는 자사 플랫폼에서 이러한 앱의 광고를 금지했지만, 텔레그램(Telegram)과 같은 다른 플랫폼에서는 여전히 공개적으로 광고되고 있습니다. EU 차원에서도 이러한 앱을 금지하기 위한 노력이 진행 중입니다. 설문 조사에 참여한 아동 대다수는 해당 앱들이 금지되어야 한다고 응답했습니다.
한편, 보고서에 따르면 온라인에서 피해를 입었을 때 성인에게 도움을 요청하려는 아동의 비율이 이전보다 높아진 점은 고무적입니다. 칼손 조사관은 "이는 희망적인 신호이지만, 동시에 아동들이 많은 시간을 보내는 온라인 공간이 점점 더 불안전해지는 새로운 도구들이 계속 등장하는 것에 대해 아동들이 지쳐있다는 것을 시사한다"고 분석했습니다.
법적 책임 및 처벌
에크파트는 피해 아동 지원 외에도, 성인들이 무엇이 합법적이고 불법적인지에 대해 아동에게 정보를 제공할 책임이 있다고 강조했습니다. 칼손 조사관은 AI로 생성된 나체 이미지를 유포하는 아동 역시 아동 포르노 관련 법규에 따라 기소될 수 있음을 명확히 했습니다. 스웨덴에서 아동 포르노 자료를 소지하거나 유포하는 행위는 원칙적으로 불법입니다.
설문 조사 결과 요약
- 조사 기간: 2026년 3월 2주간
- 참여 아동 수: 880명
- 도구 인지율: 남아 80%, 여아 75%
- 이미지 생성 경험: 남아 20% 이상, 여아 10% 이상
- 피해 경험 (자신이 대상): 여아 2% 미만, 남아 1% 미만
- AI 생성 이미지와 실제 나체 이미지의 심각성 동등 인식: 여아 55%, 남아 47%