AI 활용 아동 성적 착취물 급증…심화되는 온라인 위협
AI 활용 아동 성적 착취물 급증…심화되는 온라인 위협

최근 디지털 환경에서 아동에 대한 성적 학대 이미지를 비롯한 위법 자료가 폭발적으로 늘고 있다. 특히 인공지능(AI)을 활용해 만들어진 부적절한 콘텐츠가 과거와 달리 눈에 띄게 정교해지면서, 이를 식별하고 대응하기가 갈수록 어려워지는 추세다. 영국에 본부를 둔 비영리 재단 IWF가 공개한 통계에 따르면 지난해 무단으로 유포된 아동 착취 콘텐츠가 담긴 웹페이지는 약 29만 1,270개로, 2014년 초기 대응을 시작했을 때보다 무려 830% 이상 증가한 것으로 알려졌다.
이 단체에 따르면 피해자 다수는 여자아이였으며, 데이터 분석 결과 AI로 제작된 사진과 영상 역시 급격히 늘어나는 추세다. 전년 대비 약 380%나 증가한 245건의 사례가 등록됐으며, 사진만 해도 7,600여 장에 달하는 것으로 집계됐다. 더욱 심각한 문제는 극단적인 성행위가 포함된 콘텐츠 비율이 39%에 이른다는 점이다. 전문가조차 실제 촬영물과 구분하기 힘들 정도로 기술이 발전해, 온라인상에서 그 위협이 더욱 고도화되고 있다.
1. 다크 웹과 일반 웹의 경계
과거에는 주로 다크 웹 같은 음성적 경로에서 문제시되던 아동 대상 성착취 자료가, 이제는 일반적인 인터넷 환경 곳곳에서도 발견되고 있다는 보고가 이어지고 있다. 특수 브라우저 없이도 누구나 접속 가능한 경로에서 AI 합성 기술을 이용한 불법 이미지가 발견됨에 따라, 사회 전반에 걸쳐 새로운 유형의 위협이 부상하고 있다. 이는 소비자가 더욱 손쉽게 접근할 수 있다는 것을 의미하며, IWF 관계자들은 이러한 확산 양상을 심각하게 우려하고 있다.
특히 최근에는 AI 영상 기술의 품질이 크게 향상되어, 과거에는 어색했던 합성 장면이 이제는 실제와 구분이 어려울 정도의 수준에 이르렀다는 지적이 나온다. 이처럼 일반인도 감별하기 쉽지 않은 상황이 지속된다면, 디지털 공간에서 아동학대 이미지가 더 넓게 퍼질 가능성이 크다.
2. 확산 저지 위한 새로운 차단 솔루션
IWF는 소규모 웹사이트에서도 빠르게 해당 콘텐츠를 차단할 수 있도록 새로운 프로그램을 무료로 배포할 계획을 밝혔다. 이를 통해 운영자들이 자체적으로 위험 요소를 식별하고 조기에 대응할 수 있을 것으로 기대된다. IWF 기술 책임자인 피터 카일은 “청소년을 노리는 범죄가 온라인 환경에서 계속 진화하고 있다”며 “이번 차단 도구가 더 안전한 디지털 공간을 마련하는 데 기여하길 바란다”고 강조했다.
이처럼 다양해진 생성형 AI의 활용도가 아동 대상 범죄에까지 악용되는 상황에서, 각종 플랫폼과 시민 단체, 그리고 법 집행 기관의 협력이 긴밀하게 이뤄져야 한다는 요구가 커지고 있다. 새로운 기술의 진보는 긍정적인 가치를 창출하기도 하지만, 그만큼 어두운 목적에 쓰일 위험성도 적지 않기에 더욱 주의 깊은 접근이 필요하다.