"AI로 인류 멸종할수도…킬러 로봇에 사용 가능성 높아" 美보고서

美국무부 의뢰 글래드스톤AI 작성…1년간 민관 전문가 200명 인터뷰

"AGI 출현시 첨단무기 통제불가"…성능 제한·오픈소스 불법화 제안


생성형 인공지능(AI)으로 인류가 멸종할 수도 있다는 다소 충격적인 내용의 보고서가 공개됐다.

챗GPT와 같은 생성형 AI 모델이 일상 속에 자리 잡은 가운데 인류가 빠르게 발전하는 AI 기술에 대한 통제력을 상실할 경우 치명적인 결과를 피하기 어려운 만큼 정부가 즉각 규제해야 한다는 제언도 담겼다.

미국 시사주간지 타임은 AI 기술 분석업체 글래드스톤AI가 작성한 '첨단 AI의 안전과 보안을 강화하기 위한 실행 계획'이란 제목의 247쪽 분량의 보고서를 입수해 11일(현지시간) 단독으로 보도했다.

보고서는 미국 국무부가 2022년 11월 의뢰한 것으로 업체는 지난 1년간 주요 AI 기업 관계자와 미 행정부 관료, 사이버보안 연구원, 무기 전문가 등 200여명을 대상으로 심층 인터뷰를 진행한 뒤 지난달 26일 국무부에 제출했다. 

글래드스톤AI는 이번 보고서를 통해 AI 기술이 각국 군사 무기에 도입되는 상황을 가장 큰 위협으로 간주했다. 그러면서 AI는 앞으로 "각종 생화학전과 사이버 공격을 설계 및 실행하고 전투 로봇을 조종하는 데 사용될 가능성이 높다"고 내다봤다. 

문제는 군사기술에 활용된 AI가 인간의 통제로부터 벗어나는 경우에 발생한다. 보고서는 "현재의 기술을 사용해 AI가 개발될 경우 통제할 수 없으며 기본적으로 인간에게 적대적으로 행동할 수 있다고 믿을 만한 이유가 있다"고 분석했다.  

특히 인간의 사고능력을 뛰어넘는 이른바 '범용 인공지능(AGI)'이 출현하면 통제력 상실 위험은 더욱 커진다. AGI는 스스로 학습한 내용을 토대로 다양한 상황에 독자적으로 대처할 수 있기 때문이다. 인간의 명령 없이도 각종 무기 작동이 가능하다. 보고서는 "AGI의 부상은 핵무기나 대량살상무기의 도입을 연상시킨다"고 경고했다.

보고서는 기업의 자체적인 내부 통제는 불가능하다고 단언했다. AI 기업들은 꿈의 기술인 AGI를 가장 먼저 개발하면 경제적 보상을 독차지할 수 있는 만큼 안전보다는 속도를 우선하기 때문이다. 기업 내부에 AI 안전 책임자들이 있긴 하지만 이들의 의견이 경영에 반영되지는 못하는 실정이라고 보고서는 지적했다.

이에 보고서는 미국 정부가 개발 과정에 개입해 AGI 출현을 늦출 것을 촉구했다. 입법을 통해 오픈AI나 구글과 같은 기술 선도 기업을 대상으로 일정 수준 이상의 컴퓨팅 성능을 사용해 AI 모델을 훈련하는 것을 불법으로 규정하고, 첨단 소프트웨어의 소스 코드를 외부로 공개(오픈소스)하는 것을 금지하는 방식이다.

다만 보고서는 AGI의 출현이 아직 임박하지 않았다고 판단했다. 주요 AI 기업들이 2028년 AGI에 도달할 수 있다고 공개적으로 밝힌 것과 대비된다. AGI 개발을 위해선 강력한 연산능력을 가진 고성능 AI 반도체를 필요로 하는데, 현재 AI 반도체 수요가 공급을 따라가지 못하고 있는 데다 AI 반도체의 하드웨어 성능이 기대에 미치지 못하고 있어서다.

등록된 댓글이 없습니다.

로그인 후 댓글을 작성하실 수 있습니다.

시애틀 뉴스/핫이슈

`