UPDATED. 2024-04-20 10:10 (토)
챗지피티 앞뒤로 던지는 질문들…‘사실·성찰’ 없다
챗지피티 앞뒤로 던지는 질문들…‘사실·성찰’ 없다
  • 천현득
  • 승인 2023.04.13 08:58
  • 댓글 0
이 기사를 공유합니다

인문학자가 본 인공지능의 미래_천현득 서울대 교수

교수신문 창간 31주년을 맞아 인공지능에 대한 인문학적 성찰을 특집으로 마련했다. 창작의 영역까지 넘보는 생성형 AI의 등장은 인간 사회의 모든 영역에 균열을 내고 있다. 과연 인문학자는 인공지능을 어떻게 바라볼까. 이광석 서울과기대 교수(IT정책전문대학원)는 이용자들의 활동·취향을 데이터로 포획하는 ‘AI 자본주의’를 지적했다. 천현득 서울대 교수(과학학과)는 언어행위자인 인간과 대비해 챗지피티는 참·거짓을 구분할 수 없는 ‘개소리’ 생성기계라고 비판했다. 

“거짓말이란 한 행위주체가 자신이 참으로 믿고 있는 것과 다른 말을 할 때 성립한다. 챗지피티는 어떤 것도 믿고 있지 않다. 아니 믿을 필요가 없다. 그러니 믿음 체계의 정합성 따위에는 관심이 없다.”

우리는 열광과 우려의 교차점에 서 있다. 쏟아져 나오는 소식을 따라가기도 어려우니 도대체 판이 어떻게 돌아가는지 그 전모를 파악하기란 더욱 어렵다. 오픈 AI의 챗지피티(ChatGPT) 이야기이다.

그러나 챗지피티만이 아니다. 구글도 대형언어모형인 람다(LaMDA)의 성능을 극대화하기 위해 애쓰고 있고, 메타는 지난해 연구용 언어모형인 갤럭티카(Galactica)를 출시했다가 3일만에 비공개로 전환한 바 있다. 더 강력한 언어모형을 위한 군비 경쟁이 펼쳐지면서, 막대한 인력・재정・자원 그리고 사람들의 주의를 끌어모으고 있다. 최근 공개된 지피티-4(GPT-4)는 변호사 시험과 의사 시험 등 다양한 벤치마크에서 인간의 평균적인 점수를 훌쩍 뛰어넘는 성적을 보였다고 한다. 그다음은 뭘까?

열광 중에 해야 할 일은 섣부른 판단보다는 질문을 던지는 것이다. 챗지피티 앞에 물어보자. 너는 도대체 어떤 녀석이냐고. 먼저, 분명히 하자. 챗지피티는 인간 수준의 지능을 갖춘 행위주체가 아니다. 그것은 대규모로 수집된 언어 데이터를 학습해 인간과 같은 자연스러운 문장을 산출하는 통계적 계산장치이자 패턴인식기이다. 프롬프트에 따라 다음 단어를 예측한다는 점에서 그것은 본질적으로 고도의 자동완성 기능을 갖춘 챗봇이다.

물론, 사고에 관한 이중시스템 이론에 따르면, 패턴 인식과 연합적 학습은 인간 사고의 중요한 부분(‘시스템1’)을 차지한다. 그러나 우리는 기호적·논리적·반성적 사고를 수행하는 ‘시스템2’도 지닌다. 두 시스템이 상호작용하는 우리의 생각은 맥락의존적이면서 동시에 맥락을 전환하는 유연성을 가지고 있다. 나아가, 우리는 하나의 행위주체로서 대체로 정합적인 믿음의 체계를 생성하고 유지한다.

다양한 벤치마크에서 압도적인 성능을 뽐내는 챗지피티는 수학적·논리적 추론에서 약점을 노출할 뿐 아니라 학습되지 않은 사실에 무지하다. 예컨대, “천현득의 딸의 아빠의 이름”을 묻는 질문에 알 수 없다고 답하고, 세 자릿수의 연산 문제에 잘못된 숫자를 내놓고, 안중근의 단지(斷指)에 관해 엉터리 역사를 써주고, 달리기 경주에서 당신이 2등을 앞지르면 어떻게 되는지 물으면 1등이 된다고 답해준다. 한국의 과학철학자 3명과 그들의 대표 논문들을 요청하자, 뻔뻔하게도 그럴듯한 이름과 논문 제목과 학술지를 꾸며내며 성실하게 답변을 준다. 그것은 자연스러운 언어 표현으로 무지를 감싸며 우리를 기만한다. 데이터를 더 학습하면 완화될 수 있는 문제 아닌가? 어느 정도 도움이 될 것이다. 출력을 내기 전에 팩트체크하는 과정을 한 번 더 거치면 안 되나? 그렇게 하는 것이 바람직할 것이다. 그러나 지금 우리는 팩트체크 과정을 거치지 않은, 때로는 부정확하고 잘못된 정보를 전달하는 챗봇과 대화를 하고 있는 셈이다.

 

챗지피티가 창작부터 시험까지 전 사회적으로 영향을 끼치고 있다. 하지만 참·거짓을 구분 하거나, 사실을 확인하고 성찰하는 능력은 현재 없다. 사진=챗지피티 화면 캡처

 

추론에 약하고 팩트체크 부족한 챗봇

챗지피티는 오히려 성실하고 친절한 태도로 인해 대화의 윤리를 손상시킨다. 그것은 때로 허위정보를 생산하지만 거짓말쟁이는 아니다. 가끔만 거짓말을 한다는 뜻이 아니다. 거짓말이란 한 행위주체가 자신이 참으로 믿고 있는 것과 다른 말을 할 때 성립한다. 챗지피티는 어떤 것도 믿고 있지 않다. 아니 믿을 필요가 없다. 그러니 믿음 체계의 정합성 따위에는 관심이 없다. 믿음은 동의 행위를 전제로 성립하며, 우리는 그 믿음과 관련된 잠재적인 행위를 위해 믿을만한 것을 믿는다.

우리는 자신의 믿음에 기초하여 어떤 행위를 수행하고 그 결과에 따라 환경으로부터 피드백을 받아 자신의 믿음 체계를 다시 교정한다는 의미에서 행위자이다. 챗지피티는 거짓말도 참말도 할 수 없는 존재이다. 그것은 언어행위자가 아니다. 자신이 생성한 언어 표현의 진릿값에 무관심하다는 의미에서, 철학자 해리 프랑크퍼트의 용어를 빌리자면, 그것은 ‘개소리(bullshit)’ 생성기계이다. 물론, 많은 경우 생성된 표현들은 무해하고 (오히려 사용자에게 매우 유익할 수 있다!) 챗지피티가 무슨 악의를 가지고 개소리를 하는 것도 아니다. 문제는 챗지피티가 개소리를 하도록 허용됐다는 데 있다.

오픈 AI 홈페이지에는 챗지피티에 사실 확인 기능이 없음을 명시하는 페이지가 있다. 그러니 책임은 사용자에게 있다는 의미일 테다. 불완전한 제품이라고 하더라도 그 결점을 사전 고지하면 판매해도 괜찮을까? 사용자가 챗지피티의 능력과 용처를 정확히 알고 사용하면 아무런 문제가 없는 걸까? 챗봇이 부정확한 정보를 산출할 가능성을 계속 염두에 두면서 대화를 이어간다는 것은 비현실적인 가정이다. 이는 대화의 속성과 인간의 심리를 교묘히 이용한 책임 전가이자 면피일 가능성이 크다. 대화형 언어모형과의 대화에서 인간은 불리한 조건에서 있다. 인간 대화상대자라고 해서 늘 믿을 만한 것은 아니지만, 우리는 표정·눈짓·몸짓·말투 등을 통해 참말하는 사람과 거짓말하는 사람을 식별한다. 이러한 기준은 챗지피티 앞에서 무용하다. 우리의 질문에 자연스럽고 성실하게 때로 장황하게 답변을 이어가는 챗봇 앞에서 우리는 자연스레 그것에 의존한다. 인류는 (개소리 생성) 기계가 산출하는 허위정보에 주의하는 법을 배운 적이 없기 때문이다.

 

대형언어모형에 내재한 차별·혐오 표현

지금까지 챗지피티가 무엇이냐고 물었다. 그러나 우리의 질문이 챗지피티 앞에서 멈추지 않도록 하자. 그 너머까지 혹은 그 뒷면까지 도달하도록 질문을 세게 던져보자. 왜 거대 IT업체들은 대형언어모형이 개소리를 산출하도록 허용하는가? 오픈 AI의 CEO 샘 올트먼은 대형언어모형을 모든 인류에게 이익이 되는 일반인공지능(AGI)을 구축하는 단계로서 간주한다.

대형언어모형이 정말 AGI의 토대 모형일 수 있는지는 일단 제쳐두자. (필자는 회의적이다.) 그런데 만일 AGI가 인간 수준의 혹은 그 이상의 지능을 가지는 행위자를 의미한다면, 그것은 정말 모든 인류에게 이익이 될 것인가? 우리는 왜 인류의 목적에 봉사하는 여러 과제들에 특화된 똑똑한 기계들이 아니라, (아마도 사회의 커다란 변화로 인해 다수의 인간이 새로운 사회에 적응하느라 막대한 비용을 치러야 할) 그러한 AGI를 만들기를 기대해야 하는가?

질문을 이어가자. 단백질 구조를 예측하는 인공지능 모형이 마약이나 생화학 무기를 설계하는 데에도 사용될 수 있다면, 그것의 오용가능성은 어떻게 방지해야 하나? 대형언어모형들에 내재한 편향·차별·혐오 표현은 어떻게 걸러낼 수 있나? 이를 완화하기 위해 제3세계 노동자들에게 정서적 트라우마를 안기면서 노동착취를 일삼는 것은 아닌가? 정제된 데이터로 훈련된 효율적이고 작은 모형들 대신, 막대한 에너지를 소모하고 엄청난 탄소 발자국을 남기는 대규모 모형을 개발해야 할 이유는 무엇인가?

오픈 AI는 지피티-4를 출시하면서 그전과 같이 아키텍처, 파라미터 수, 학습 데이터에 대한 정보를 왜 공개하지 않는가? 우리는 대형언어모형의 능력과 한계는 무엇인지, 그것의 광범위한 사용이 사회 전반에 미치는 영향은 무엇이고 어떤 위험성이 있는지, 예상되는 부작용은 어떻게 예방 가능한지 등을 묻지 않을 수 없다.

게임 이론의 틀로 볼 때, 군비 경쟁을 멈추는 합리적 방법은 마땅치 않다. 아마도 경쟁의 끝에서 파국이 예견될 때, 그리고 여러 이해당사자가 참여하는 국제적 거버넌스가 작동할 때, 군비 경쟁은 회피할 수 있을 것이다. 그러나 회피할 수는 없더라도 속도를 조금은 늦추어볼 수 있지 않을까? 지금은 질문의 시간이다. 우리 사회는 질문을 던질 용기가 있는가?

 

 

천현득
서울대 과학학과 교수·과학철학
서울대 물리학과를 졸업하고 같은 대학원 과학사 및 과학철학 협동과정(현 과학학과)에서 석사·박사학위를 받았다. 이화여대 인문과학원 교수, 피츠버그대 과학철학센터 객원펠로우를 역임했다. 『과학이란 무엇인가』, 『인공지능의 존재론』 등을 함께 썼고, 토머스 쿤 과학철학의 전환을 다룬 저서 『토머스 쿤, 미완의 혁명』(서울대출판문화원)이 곧 출간될 예정이다.


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.