촘스키, AI챗봇 '악의 평범성' 경고…"기존 입장 베끼기만 한다"

NYT 기고글서 기계학습의 한계 지적

가정적 사고 불가능…창의적 설명 못해

 

세계적인 언어학 석학 노엄 촘스키(94) 미국 메사추세츠공대(MIT) 명예교수가 챗GPT로 화제가 된 인공지능(AI) 기술에 대해 "인간이 언어를 사용하고 사유하는 방법과 본질적으로 다르다"며 AI가 지닌 기술적·도덕적 한계를 명확히 지적했다.

촘스키 교수는 8일(현지시간) 이언 로버츠 케임브리지대 언어학 교수, AI 기업 제프리 와터멀과 함께 뉴욕타임스(NYT)에 '챗GPT의 거짓 약속'이란 제목의 기고문을 냈다.

촘스키 교수는 AI가 "엄청난 양의 데이터를 다루며 그 안에서 패턴을 찾고 통계적으로 그럴듯한 결과물을 도출해 낸다"고 평가했다. 이어 "기계가 정보처리 속도와 양뿐만 아니라 통찰 능력에서도 인간을 뛰어넘는 순간이 올 것이라는 오랜 예언이 있다"고 소개했다.

그러면서도 "새벽은 밝지 않았다"며 "AI가 인간이 언어를 사용하고 사유하는 방법과 본질적으로 다르다는 것을 언어학과 지식철학을 통해 알 수 있다"고 주장했다. 또한 "인간과 AI의 차이는 프로그램상 제거할 수 없는 결함으로 프로그램이 할 수 있는 것에 상당한 제약을 가한다"고 강조했다.

촘스키 교수는 AI가 기계학습을 위해 다량의 데이터에 의존한다고 지적했다. 그는 "인간은 패턴을 찾기 위해 수백테라바이트의 데이터를 먹어 치우는 통계학적 기계가 아니다. 언어를 배우는 어린아이들은 아주 적은 양의 데이터로부터 부지불식간에 완벽한 문법 체계를 습득한다"고 지적했다. 그러면서 "인간의 '운영체계'는 생득적이며 유전적으로 설치된다"고 덧붙였다.

또한 AI가 내놓는 그럴듯한 결과물들이 실상은 "인간의 인지적 혁명단계 이전에 갇혀있다"라고도 지적했다. AI는 현상을 묘사하고 예측할 뿐 가정을 기반으로 한 추론은 불가능하다는 게 촘스키 교수의 판단이다.

촘스키 교수는 '사과를 손에 들고 있는' 상황에서 사과에서 손을 뗀 뒤 벌어지는 결과를 보고 '사과가 떨어진다'고 말하는 것과 '손을 떼면 사과가 떨어질 것이다'라고 말하는 것은 각각 '묘사'와 '예측'이라고 설명했다. 묘사와 예측은 AI가 반복 학습함을 통해 지금도 충분히 가능하다.

반면 촘스키 교수는 '모든 물체는 반드시 떨어진다'란 추론은 오직 인간만 가능하다고 분석했다. 경험법칙을 기반으로 현실에 없는 상황을 가정하는 능력은 AI로서는 역부족이다. 이 같은 '가정적 추론'의 결여로 인해 '중력으로 모든 물체는 떨어진다' 혹은 '시공간이 뒤틀렸기 때문에 모든 물체는 떨어진다'는 '인과관계 설명'도 AI는 할 수 없다.

촘스키 교수는 '묘사'와 '예측'은 물론 '가정적 추론'과 '인과관계 설명'까지가 인간 사고의 총체라고 강조했다. 그는 AI가 기계학습을 통해 그럴듯한 추론에 도달하더라도 "사이비 과학에 불과하다"고 선을 그었다.

촘스키 교수는 AI의 최대 결함으로는 윤리적 판단 능력의 결여를 꼽았다. 그는 "진정한 지성은 도덕적 사고를 할 수 있다"며 "이는 무엇이 돼야 하고 무엇이 돼서는 안 되는지를 결정하는 일련의 윤리적 원칙을 통해 가능하다"고 지적했다.

그러면서 촘스키 교수는 챗GPT와 나눈 대화를 토대로 "챗GPT가 악의 평범성을 보여준다"고 직격했다. 그는 챗GPT가 "표준적인 입장을 일종의 자동완성 기능으로 요약만 할 뿐 어떤 입장을 취하는 것을 거부한다"며 "그저 명령을 따른다는 식으로 자신을 방어하고 모든 책임을 프로그래머들에게 전가한다"고 지적했다.

 

기사제공=뉴스1(시애틀제휴사)

등록된 댓글이 없습니다.

로그인 후 댓글을 작성하실 수 있습니다.

시애틀 뉴스/핫이슈

한인 뉴스

`