뉴욕타임스 기고글에서 주장

사진=게티이미지뱅크

미국의 저명한 언어학자 노엄 촘스키 교수가 ‘챗GPT’와 같은 대화생성형 인공지능(AI) 열풍에 대해 “인류의 지능과 언어력에 한참 못 미칠 뿐만 아니라 도덕성도 결여된 ‘가짜 과학(faux science)'”이라며 혹평을 쏟아냈다.

촘스키는 8일(현지시각) 이언 로버츠 영국 케임브리지대 언어학 교수, 제프리 와터멀 오셔니트 AI 국장과 함께 뉴욕타임스에 ‘챗GPT의 거짓 약속’이라는 제목의 글을 기고했다.

그는 “오픈AI의 ‘챗GPT’, 구글의 ‘바드’, 마이크로소프트의 ‘시드니’ 등 머신러닝 프로그램은 엄청난 양의 데이터를 토대로 패턴을 검색해 대답해 겉보기에는 인간과 같은 언어능력과 사고를 하는 것처럼 보이지만 사실은 그렇지 않다”고 말했다.

그는 “실제로는 인간 단계에 다다르지도 못했다. 인지능력이 발달하지도 않은 비인간 단계 수준”이라며 “가장 큰 결점은 어떠한 ‘지능’도 갖추지 못했다는 점”이라고 비판했다. 무엇이 사실인지, 어떤 사실이 있었는지, 어떤 사실이 펼쳐질지 그리고 무엇이 사실이 될 수 있고, 어떤 게 사실이 될 수 없는지 판단하는 게 지능의 핵심 역량인데 챗GPT는 이 부분이 없다는 설명이다.

촘스키는 “AI는 주로 묘사와 설명만 가능하다. 조건법적 추측이나 인과관계 설명은 못 한다”고 지적했다. 예컨대 ‘지구가 평평하다’와 ‘지구가 둥글다’의 정보를 둘 다 넣으면 같은 비중을 두고 말하도록 설계됐다. 시간이 지날수록 통계적 결과에 따라 ‘평평’과 ‘둥글’의 대답이 나오는 확률이 달라지도록 ‘정보처리’를 취급한다는 의미다.

그러면서 “이런 이유로 머신러닝 시스템의 예측은 항상 피상적이고 불확실하다”며 “설령 머신러닝의 예측이 맞더라도 이는 가짜 과학에 불과하다”고 말했다.

촘스키는 또 “무지에서 비롯된 도덕적 무관심을 유의 깊게 봐야 한다”며 “챗GPT는 ‘악의 평범성’을 갖고 있다. 표절을 하거나 문제를 배제하는 회피 양상, 그리고 무관심적 반응이 그렇다”고 언급했다. 그는 “슈퍼자동완성 기능으로 주장을 요약하면서 어떤 것에 대한 입장 표명은 거부하고, 지식의 부족이 아니라 지능이 부족한 점을 드러내면서 그저 ‘명령을 따르는 것’이라는 방어적인 태도로 작성자에게 책임을 전가한다”고 말했다.

이어 “따라서 챗GPT류의 AI 챗봇은 시스템의 비도덕성와 가짜 과학의 민낯을 보여줄 뿐”이라며 “이런 프로그램에 대한 열광적 인기를 지켜보며 우리는 웃거나, 울 수밖에 없다”고 씁쓸함을 나타냈다.


이 기사에 대해 공감해주세요!
+1
0
+1
0
+1
0
+1
0
+1
0

랭킹 뉴스

실시간 급상승 뉴스 베스트 클릭

금주 BEST 인기글