"내 몸 볼래?" 13만원에 누드 사진 팔던 여성의 반전…인간 아닌 AI

 미국의 온라인 커뮤니티 '레딧'에서 100달러(약 13만원)에 자신의 나체 사진을 판매하던 여성의 정체가 공개됐다. 이 여성은 대학생이 인공지능(AI)으로 만든 가상 인간이었다고 워싱턴포스트(WP)가 지난 12일 보도했다.


레딧 이용자 A씨는 '클라우디아'라는 이름을 가진 여성의 계정을 탐닉하고 있었다. 어두운 색깔의 머리에 오묘한 눈동자 색을 자랑하는 클라우디아는 지난 1월부터 자신의 셀프 카메라 사진을 공유하면서 인기를 얻었다.

A씨는 "클라우디아는 섹시하고 완벽하다"며 댓글을 달며 추종하기 시작했다. 그러자 클라우디아는 돈을 내면 자신의 나체 사진을 보내주겠다고 홍보하면서 유료 구매자를 모집했다.

알고 보니 클라우디아는 스태빌리티 AI가 개발한 이미지 생성 AI 프로그램인 '스테이블 디퓨전'으로 만든 가상 인간으로, 컴퓨터과학 전공 대학생 두 명이 벌인 일이었다.

두 사람은 "인공지능 사진으로 사람들을 속일 수 있는지 알아보기 위해 아바타를 만들어냈다. 솔직히 이 정도로 관심을 끌 거라고는 생각하지 못했다"며 "한 레딧 이용자가 여자인 척 속여 500달러(약 65만원)를 벌었다고 주장하는 글을 보고 영감을 얻었다"고 밝혔다.

그러면서 "일부 레딧 이용자에게 클라우디아의 나체 사진을 팔아 100달러를 벌었다"고 전했다. A씨는 "너무 완벽해서 믿을 수 없었다. 왠지 속은 것 같다"고 한탄했다.

이 같은 사실에 일각에서는 딥페이크 포르노에 대한 윤리적 문제를 제기했다. 캘리포니아 버클리대 하니 파리드 교수는 "AI 사진 생성 프로그램 자체가 이미 있는 데이터를 기반으로 이미지를 창출해내기 때문에, 자신의 초상이 활용되는데 동의하지 않은 누군가의 사진이 무분별하게 이용될 수 있다"고 지적했다. 동시에 "딥페이크 포르노는 문제가 많고 법적으로 규제돼야 한다. 물론 딥페이크에는 장단점이 있지만, 포르노 산업과 연계되는 순간 문제가 복잡해진다"고 했다.

또 AI 이미지 기술이 여성에 대한 성적 대상화 또는 사칭 등을 더욱 심화시킬 수 있다는 우려도 함께 나왔다. 누구나 짧은 단어 몇 개만 입력하면 무료로 가짜 사진을 만들 수 있으며, 결함 있는 부분을 가리고 화질을 개선하는 등 이미지를 더욱 정교하게 편집하면 그럴듯한 사진을 만드는 수준에 이르렀다.

 

기사제공=뉴스1(시애틀제휴사)


등록된 댓글이 없습니다.

로그인 후 댓글을 작성하실 수 있습니다.

시애틀 뉴스/핫이슈

`