"Don't be evil" 이라더니…'성폭행 유튜브 생중계' 해도 손놓은 구글

지속되는 유튜브 범죄 생중계…AI 필터링 한계

"플랫폼 업체의 사회적 책임 확대 필요해"

 

실시간 스트리밍 플랫폼을 통해 '범죄'가 생중계된다. 자극이 큰 만큼 시청자가 몰려들고, 큰 관심은 '돈'으로 환산된다. 영화 속 얘기가 아닌 현실에서 벌어지는 일이다.

유튜브 위에 올라탄 범죄가 지속되고 있다. 유튜브 플랫폼 사업자인 구글은 인공지능(AI) 필터링 기술과 모니터링팀을 운영하는 등 필요한 조치를 하고 있다는 입장이다. 하지만 미처 걸러지지 않은 범죄 장면은 플랫폼이 미치는 도달 범위만큼 사회적으로 큰 파장을 미친다.

여성을 성폭행하고 쓰레기장에 버리는 모습이 버젓이 '생중계'돼도 손놓고 있는 유튜브. '악해지지 말자(Don’t be evil)'는 구글의 모토를 비웃듯 유튜브를 '표현의 자유'라는 이름으로 공론의 장을 만들어놓고 '역기능'에 대해서는 방관하는 구글. 플랫폼에 대한 더 큰 책임을 묻고 규제를 적용해야 한다는 목소리가 커지고 있다.

◇지속해서 불거지는 실시간 스트리밍 범죄

지난 26일(현지시간) 영국 데일리메일에 따르면 러시아 모스크바에서 여성을 성폭행한 뒤 쓰레기장에 유기하는 모습이 유튜브를 통해 생중계됐다. 하지만 이번 사건은 사회적 의제로 다뤄지기보단 황색지들의 자극성 보도로만 소비됐다.

해당 사건에 대한 보도는 영국 내에서 타블로이드 황색 언론으로 분류되는 데일리메일, 더선 이외에 크게 다뤄지지 않았다. 유튜브를 통한 범죄 생중계라는 사건은 자극적이지만 더는 새롭지 않기 때문이다. '더 테러 라이브'는 배경을 달리한 채 주기적으로 터져 나오고 있다.

 

가장 최근에는 지난 23일(현지시간) 미국 콜로라도주 볼더 총기 난사 사건이 유튜브로 생중계됐다. 범죄자가 아닌 구경꾼에 의한 것이었지만, 범행 현장이 여과 없이 중계돼 논란이 불거졌다. 지난해 2월에는 태국 군인이 태국 북동부 나콘랏차시마 시내의 대형 쇼핑몰에서 인질극을 벌이는 장면이 페이스북 라이브를 통해 방송됐다. 

 

해당 총격 사건으로 30명이 사망하고 57명이 부상을 입었다. 2019년 3월에는 뉴질랜드 크라이스트처치 이슬람 사원 두 곳에서 벌어진 총기 난사 사건이 페이스북을 통해 현장 중계됐다. 테러범은 헬멧에 카메라를 부착하고 17분 동안 페이스북 라이브를 진행했다. 이 사건으로 51명이 죽고, 49명이 다쳤다.

실시간 스트리밍 범죄는 2015년경부터 유튜브를 비롯해 트위터, 페이스북 등 플랫폼 서비스 사업자들이 생중계 기능을 도입하면서 지속해서 나타나고 있다. 방송사가 쥐고 있던 권력이 모든 이용자에게 주어지면서 다양한 가능성이 제시됐지만, 부작용이 속출하는 모습이다. 방송사의 경우 규제를 받지만 유튜브 등의 플랫폼은 규제 사각지대에 있어 문제가 더하다. 이들 업체는 실시간 연결성을 강조하며 이용자들의 서비스 체류 시간을 늘릴 수 있었지만 방송사에 부과됐던 규제와 책임은 외면하는 실정이다. 

◇'AI 필터' 내세웠지만 물량 공세에 한계 드러내

플랫폼 업체들은 AI 필터링 기술을 내세웠다. 유튜브는 매분 수백 시간 분량의 새로운 콘텐츠에 대응해 검수팀과 함께 머신러닝 기술을 사용해 문제 있는 콘텐츠를 걸러낸다. 유튜브 측은 "머신러닝은 패턴을 감지하는 데 적합하며 심지어 시청되기 전에 삭제된 다른 콘텐츠와 유사한 콘텐츠를 찾도록 도움을 준다"며 AI 기술을 통한 선제적 대응을 강조한다. AI 기술을 강조하는 건 페이스북, 트위터 등도 마찬가지다.

하지만 AI 기술은 완벽하지 않다. 페이스북은 지난 2019년 3월 뉴질랜드 총기 난사 사건이 자사 서비스를 통해 중계된 데 대해 AI 기술의 한계를 말했다. 총기 난사 사건이라는 데이터가 충분히 학습되지 않았기 때문에 AI가 이를 걸러낼 수 없었다는 설명이다. 플랫폼 업체들은 디지털 지문 '해시값'을 활용해 테러 동영상이나 이미지에 공동 대응하고 있지만 영상이 재편집돼 해시값이 변조될 경우 이 같은 대응 방식은 무력해진다.

 

실시간 스트리밍과 관련해 유튜브는 "모든 실시간 스트리밍 콘텐츠는 커뮤니티 가이드 및 서비스 약관을 준수해야 하며, 해당 스트리밍을 통해 광고로 수익을 창출하고자 하는 경우 광고주 친화적인 콘텐츠 가이드라인도 준수해야 한다. 정책을 위반하는 실시간 스트리밍 콘텐츠는 삭제되거나 광고가 제한 또는 배제될 수 있으며, 해당 채널의 실시간 스트리밍 기능이 사용 중지될 수 있다"고 입장을 밝혔다.

하지만 이 같은 방침 또한 명확하지 않은 가이드라인에 의존하고 있다는 지적을 받는다. 유튜브는 지난 23일(현지시간) 벌어진 미국 콜로라도주 볼더 총기 난사 사건 생중계 콘텐츠에 대해 삭제 조치를 하지 않아 비판을 받았다.

유튜브 측은 "충격을 주거나 혐오감을 주는 폭력적인 콘텐츠는 유튜브에 허용되지 않지만, 뉴스나 다큐멘터리의 맥락을 충분히 담아낸 영상은 허용된다"며 제3자가 촬영한 총기 난사 생중계 영상을 그대로 뒀다. 2019년 뉴질랜드 크라이스트처치 총기 난사 사건 당시 유튜브는 이와 관련된 범죄 영상을 삭제하면서 뉴스 가치가 있는 영상도 함께 삭제해 비판받은 바 있다.

◇'큰 힘'에 걸맞은 사회적 책임 필요해

이에 대해 미국 IT 매체 더버지는 유튜브가 언론인들이 오랜 시간 맞닥뜨렸던 물음, 폭력을 어떻게 책임감 있게 다룰 것인지에 직면했다고 논평했다. 기성 언론이 선정적 보도로 홍역을 치르면서 '저널리즘'에 대한 원칙을 세워나갔듯이 유튜브 역시 비슷한 처지에 놓였다는 얘기다.

뉴욕타임스(NYT)는 2019년 뉴질랜드 총격 사건 생중계에 대응하는 플랫폼 기업들을 다루며 "거대 기술 플랫폼 기업들이 언론의 것으로 여겨지던 문제를 물려받았다"고 보도했다. 언론의 역할을 플랫폼 업체들이 대체하게 되면서 언론의 책임과 고민 역시 가져가게 됐다는 설명이다. 결국 '큰 힘에는 큰 책임이 따른다'는 지적이다.

민주주의 기술, 인터넷 정치 커뮤니케이션 등의 분야를 연구하는 송경재 상지대 교양학부 교수는 "플랫폼 사업자에게도 불법적 정보 유통에 대한 책임이 있고 이에 대해 조치를 해야 한다"며 "AI를 통한 모니터링에는 한계가 명확하고, (플랫폼 기업에) 책임은 있는데 이를 어떻게 차단하고 규제할지에 대한 사회적 합의가 존재하지 않는다. 이 때문에 기업의 입장에 따라 차단과 규제 방식이 결정되는 경우가 많다"고 지적했다.

이어 "플랫폼 사업자에 대한 사회적 책임이 확장돼야 한다"며 "단순 필터링에서 벗어나 시민이 직접 참여하는 가이드라인 기준 마련, 신고제 및 등급제 개선 등 세부적인 고민이 지속돼야 한다"고 강조했다.

 

기사제공=뉴스1(시애틀N 제휴사) 

등록된 댓글이 없습니다.

로그인 후 댓글을 작성하실 수 있습니다.

뉴스포커스

목록
목록
`