스페인의 한 도시에서 인공지능(AI)으로 합성된 아동‧청소년들의 나체 사진이 온라인에 집단...
배우 엠마 왓슨의 얼굴인 것처럼 나타나는 AI 기반 딥페이크 광고 스틸 사진. SNS/NBC뉴스 캡처.23일 BBC와 엘파이스 등에 따르면 최근 스페인 엑스트레마두라주 알멘드랄레호 마을에서 AI로 만들어진 십대 여학생들의 나체 사진이 사회관계망서비스에서 다수 확산됐다. 이는 AI 기반 딥페이크 기술을 통해 옷을 입고 있는 평범한 모습이 담긴 10대 소녀들의 진짜 사진을 이용해 나체 상태의 가상 이미지가 만들어졌다.
14세 딸을 둔 어머니 마리아 블랑코 라요는 “어느날 딸이 학교를 마치고 돌아오더니 ‘엄마, 상반신을 벗은 제 사진이 돌아다니고 있어요’라고 말했다”고 전했다. 그가 딸에게 ‘그런 사진을 찍은 적 있냐’고 물어보자, 딸은 “아니다. 이는 가짜 사진인데, 우리 반에도 이런 일을 겪은 또다른 여학생이 있다”고 답했다. 이 문제를 SNS를 통해 공론화한 이 지역의 산부인과 의사 미리암 알 아디브는 “강도와 같은 범죄 피해를 당할 때 피해자들은 숨지 않고 고소를 하지만, 성범죄인 경우 수치심을 느끼고 숨는 경우가 많다”면서 “‘네 잘못이 아니다’라는 메시지를 전하고 싶었다”고 밝혔다. 그러면서 “세계 각지의 여성들이 나에게 비슷한 일을 겪었고, 어떻게 해야할지 모르겠다는 편지를 보내왔다”며 “현재 전세계에서 이런 일이 일어나고 있다”고 말했다.
전문가들에 따르면 현재 스페인 형법은 AI가 사용되는 이러한 유형의 범죄를 별도로 분류하거나 고려하지 않는다. 이번 사안과 같이 AI를 활용한 성범죄의 경우 노출이 있는 신체 사진들이 실제로 사적으로 촬영된 것이 아니며, 피해자들로부터 이 사진을 강탈하지도 않았고, 채팅을 통해 강요한 것도 아니라는 점에서 기존의 법을 적용하기 어렵다는 것이다.AI를 활용한 성범죄는 스페인 뿐 아니라 이미 전 세계에서 확산하고 있다. 특히 한국은 딥페이크를 이용한 범죄가 가장 많이 발생하는 나라 중 하나다. 2019년 네덜란드 사이버 보안 연구 회사 ‘딥트레이스’가 발표한 보고서에 따르면, ‘딥페이크 포르노’의 전 세계 피해자 25%는 한국 여자 연예인이었다. 엘파이스는 이번 사건을 보도하면서 “미국, 영국, 한국이 이러한 문제의 최전선에 있다”고 지적했다.