'성·자살 콘텐츠 차단' 미성년 전용 챗GPT 나온다…"자녀 위험" 알림도

오픈AI, 유저 연령 정밀한 파악 기술 개발

보호자 계정 연동, 위기땐 부모·당국 연락


오픈AI가 18세 미만 어린이와 청소년 전용 챗GPT를 출시하기로 했다. 부모와 자녀의 계정을 연결하는 부모 통제 기능도 곧 도입된다.

16일(현지시간) CNBC에 따르면, 오픈AI는 미 연방거래위원회(FTC)가 빅테크 기업의 AI챗봇이 어린이와 청소년에게 잠재적으로 부정적인 영향을 미칠 수 있는지에 대한 조사 개시 이후 이같은 업데이트를 결정했다.

이번 업데이트에 따라 챗GPT 사용자가 미성년자임이 확인되면 자동으로 연령에 적합한 환경으로 안내된다.

청소년 전용 챗GPT는 선정적·성적 콘텐츠와 자살·자해 관련 콘텐츠를 차단한다. 또 사용자가 자살 충동을 보이는 등 위험 상황에서는 사용자의 부모에게 연락을 시도하고 불가능할 경우 위험 상황에서 당국에 연락한다.

오픈AI는 "사용자의 연령을 더 정확하게 파악하는 기술을 개발 중이지만, 불확실하거나 정보가 불완전한 경우 챗GPT가 기본적으로 18세 미만 전용으로 설정될 것"이라며 "일부 국가에서는 신분증을 요구할 수도 있다"고 밝혔다.

이런 조치는 최근 챗GPT가 일부 이용자들에게 비현실적이고 거짓된 망상을 심거나 생명을 위태롭게 하는 답변을 하고 있다는 우려가 제기되는 가운데 나왔다.

미국 캘리포니아주에서는 지난달 25일 스스로 목숨을 끊은 16세 소년의 부모가 오픈AI를 상대로 소송을 제기했다.

매튜 레인과 마리아 레인 부부는 소장에서 아들 애덤이 숙제를 위해 챗GPT를 활용하다가 점점 더 의존하게 됐고, 지난 4월 11일 마지막 대화에서는 자살에 도움을 주는 답변을 제공했다고 주장했다.

애덤은 챗GPT와 대화를 나눈 지 몇 시간 만에 숨진 채 발견됐다.

이들은 손해 배상을 포함, 자해와 관련한 모든 대화의 자동 종료와 미성년 자녀를 위한 보호 기능 같은 안전 조치를 명령해달라고 법원에 요구했다.

이에 오픈AI는 지난달 26일 챗GPT 부모 통제 기능을 출시하겠다고 예고했다. 해당 기능은 이달 말부터 적용된다.

통제 기능을 통해 부모 계정을 자녀 계정과 이메일로 연결하고 차단(블랙아웃) 시간을 설정할 수 있으며, 메모리·채팅 기록 등의 기능을 비활성화할 수도 있다. 또 자녀가 심각한 위기 상태에 있을 때는 알림을 받을 수도 있다.

등록된 댓글이 없습니다.

로그인 후 댓글을 작성하실 수 있습니다.

시애틀 뉴스/핫이슈

한인 뉴스

`