UPDATED. 2024-04-20 18:05 (토)
편향도 그대로 학습하는 ‘언어 모델’…“더 이상 숨지 않는 기술”
편향도 그대로 학습하는 ‘언어 모델’…“더 이상 숨지 않는 기술”
  • 윤진혁
  • 승인 2023.05.24 09:07
  • 댓글 0
이 기사를 공유합니다

과학기술자가 본 인공지능

교수신문은 지난 ‘인공지능에 대한 인문학적 성찰’에 이어 ‘과학기술자가 본 인공지능’을 특집으로 마련했다. 창작의 영역까지 넘보는 생성형 AI의 등장은 인간 사회의 모든 영역에 균열을 내고 있다. 과연 과학기술자는 인공지능을 어떻게 바라볼까. 윤진혁 숭실대 교수(AI융합학부)는 서비스 뒤에 숨어 있던 기술이 화면에 드러나며 사람이 체감할 수 있게 됐다고 지적했다. 그 가운데 거짓말도 할 수 있는 대규모 언어 모델인 챗지피티가 등장한 것이다.

“우리가 어떤 방향으로 가고 있는지에 대한 것을 물어야 한다. 과연 모델이 만들어내고 있는 편향성을 극복하려면 어떻게 해야 할까? 언어 모델에서 충분히 다루고 있지 않은 영어가 아닌 언어는 어떻게 해야 할까?”

지난 몇 년간 봄 학기에는 학부 4학년을 대상으로 빅데이터 프로그래밍 과목을 강의했다. 첫 주 수업은 학생들의 흥미를 이끌어 내기 위해 본격적인 수업에 앞서 기술적인 측면에서 최근의 세상이 어떻게 돌아가는지를 이야기한다. 올해 첫 강의는 3월 7일이었다. 전체적인 기술 발전에 대해 다루지만, 올해는 특히 챗지피티(ChatGPT) 열풍을 핑계로 대규모 언어 모델(Large Language Models: LLM)에 대해 많은 시간을 할애했다. 언어 모델 이야기를 하기 전에 언어 모델을 실제로 써 본 적이 있냐는 질문을 던졌다. 지난해에는 아무도 직접 언어 모델을 다뤄본 학생이 없었는데 올해는 많은 학생들이 챗지피티를 써 보았다고 했다. 챗지피티가 2022년 11월 마지막 날에 출시됐으니, 기말고사를 치르고 겨울방학이 지나는 사이에 세상이 참 많이 변했다는 생각이 든다.

지난 몇 년간 언어 모델은 기하급수적으로 커왔다. 여기서 크다는 것은 매개변수의 수가 많다는 뜻이다. 가장 단순하게 표현하자면 모델 내부에서 데이터를 다루기 위해 얼마나 많은 수의 가중치를 가진 신경망이 연결돼 있는지를 이야기한다. 보통은 다양한 목적에서 큰 모델일수록 성능이 좋다. 단순히 성능만 좋아지는 것뿐만 아니라 큰 모델에서는 작은 모델에서 불가능했던 인지 능력이 생긴다는 보고도 있다. 과학 뉴스에서는 몇 주에 한 번씩 대형 IT기업의 새로운 모델과 그 성능에 대해 이야기했지만, ‘대단한’ 언어 모델을 실제로 다뤄보거나 그 능력을 체감한 사람은 극소수였다. 

사용할 수 있는 언어 모델의 최대 크기는 가지고 있는 GPU(그래픽 처리 장치)의 메모리 크기에 의존한다. 현재 계산용으로 파는 전문 제품이 아닌 일반적인 사람이 접할 수 있는 가장 좋은 GPU는 겨우 24기가바이트 메모리를 가지고 있고, 현시대의 대형 언어 모델을 다루기에는 턱없이 부족한 크기다. 이런 GPU 몇 개를 모은 정도로는 대형 모델을 사용하는 것은 어렵다. 이런 모델을 학습하는 데는 사용하는 것 보다도 훨씬 많은 자원이 필요하다. 일부 대형 IT회사가 아닌 대부분의 경우에는 그만큼의 자원을 동원할 수 없다. 결국 대형 IT 업체들이 사활을 걸고 대형 언어 모델을 개발하고 있었지만 대부분의 사람들은 이런 대형 언어 모델의 능력을 체감하기 어려웠다. 기술은 서비스 어딘가 뒤에 숨어 있었다.

윤진혁 숭실대 교수(AI융합학부)는 챗지피티의 핵심 기술은 이미 2017년에 등장하기 시작했다고 지적했다. 사진=픽사베이

 

대형 언어 모델과 대화형 인터페이스의 결합

그런데 갑자기 숨어 있던 기술이 눈앞에 나타났다. 챗지피티는 매우 큰 언어 모델과 대화형 인터페이스를 결합해 마치 사람과 대화하듯 언어 모델이 추론하는 정보를 끌어낼 수 있도록 만들었다. 챗지피티가 사람들에게 많이 와 닿은 이유는 체감할 수 있기 때문이 아닌가 싶다. 모두가 챗지피티를 마치 인공지능의 대표주자인 것처럼 이야기한다. 기시감이 든다. 몇 년 전 바둑을 보며 말하던 것들을 이제 챗지피티를 보며 이야기한다. 

아쉽게도 모델 자체가 공개되지 않은지라 기술적으로 말하기는 어렵지만, 알려진 사실만으로 이야기해보자. 먼저 연구자 입장에서 보면 챗지피티는 잘 만들어진 모델이지만, 핵심 기술 자체가 매우 새롭지는 않다. 큰 기반이 되는 어텐션 메커니즘(Attention Mechanism)은 이미 2017년에 소개됐다. 2017년이 얼마 되지 않은 것 같지만, 요즘의 기술 발전 속도에서 5년은 마치 산업혁명 전과 후를 비교하는 느낌이다. 그리고 여기에 사람이 모델의 결과에 대해 평가하는 피드백을 더하는 방식(RHEL: Reinforced Learning from Human Feedback)을 추가했다. 언어 모델은 기본적으로 다음 토큰, 즉 언어의 최소 단위를 예측하는 형태로 작동하는데, 좋은 글을 만들어낼수록 좋은 언어 모델이라 할 수 있다. 

그러나 “좋다”라는 말을 정의하는 것이 본질적으로 매우 어렵다. 기존에는 학습에 사용된 문장들을 잘 재현하는지, 혹은 미리 정의된 정답을 얼마나 잘 맞추는지 BLEU(Bilingual Evaluation Understudy) 같은 테스트를 통해서 확인해 왔다. 하지만 이것만으론 충분하지 않다. 인간이 잘 쓴 글은 창의적이고, 사실에 어긋나지 않아야 하며, 자연스러워야 한다. 이 모든 점을 만족하는 것을 수치만으로 판단하기 어려우므로, 사람의 피드백을 더해서 좋은 글을 판별하게 한 것이다. 그리고 그 위에 우리가 익숙한 ‘채팅’을 덮어 사람들이 자연스럽게 기계와 대화를 하는 느낌으로 모델을 사용할 수 있게 했다.

사실은 이전의 모델들도 꽤나 설득력 있는 텍스트를 만들어 주었다. 덜 정확했지만 꽤나 괜찮은 프로그램도 만들어 줄 수 있었다. 우리가 사용하는 검색, 이메일, 페이스북 포스팅에는 이미 그런 LLM을 통한 기술들이 들어가 있었을 것이다. 예를 들면 언젠가부터 구글의 이메일 서비스인 지메일은 사용자가 입력한 글의 문법을 고치는 기능이 생겼다. 언어 모델이 하는 일이다. 

그런데 이런 언어 모델이 실생활에 사용될 때 우리에게 어떤 영향을 미치는지에 대한 연구가 충분히 많지 않다. 예를 들면 언어 모델은 사람의 편향을 그대로 학습한다. 차별적인 사고방식을 그대로 익히고, 그것을 반복한다. 소위 “확률론적 앵무새”라고 부르는 현재의 언어 모델은 그 거짓말이 꽤나 그럴싸하다면 거짓말도 할 수 있다. 이런 문제는 사실 수년간 많은 사람들이 경고해 왔던 것이다. 기술이 숨어 있었기에 우리는 그 무서움을 잘 모르고 있었는데, 챗지피티에서 체감한 언어 모델을 통해 사람들은 그런 문제도 깨닫기 시작했다.

 

언어 모델은 실생활에 어떤 영향을 미치나

수업의 말미에 학생이 “우리가 이렇게 대화하면서 행동을 하듯, 언젠가는 대규모 언어 모델 기반으로 사람처럼 움직이는 정밀 로봇 제어가 가능하지 않을까?”라는 질문을 했다. 어릴 때 즐겨 보던 만화 「신세기 사이버 포뮬러」가 떠올라서 웃음이 나왔다. 사실은 지금도 시간이 날 때 돌려본다. 1991년에 첫 화가 방영된 이 만화는 사람처럼 대화하고, 운전자의 지시에 따라서 시속 600킬로미터로 달리는 자동차의 움직임을 제어하는 로봇이 나온다. 그 말을 듣고 “언젠가는 그날이 오겠지만, 꽤 먼 미래가 아닐까요”라는 답을 했는데, 강의에서 돌아오는 길에 구글이 자연어를 통해 로봇을 제어할 수 있는 ‘PaLM-E’라는 모델을 발표했다는 소식을 들었다. 첫 강의는 항상 “오늘 내가 한 말의 반 정도는 내년에는 틀린 말이 될지도 모른다”라는 말로 마무리한다. 그리고 그 말도 틀린 말이었다. 

사실은 몇 년 전부터 모두가 너무나 빠르게 날아가는 로켓 위에 타고 있었는데, 그것을 이제야 깨닫게 되는 것 같다. 이미 출발한 로켓을 멈추기는 어렵다. 많은 사람들이 인공지능이 바꿔놓을 세상을 기대와 우려로 바라보며, 어떤 직업이 나타나고 없어질 것인지에 대해 이야기한다. 하지만 우리가 걱정해야 할 것은 그런 것이 아닌 것 같다. 우리가 어떤 방향으로 가고 있는지에 대한 것을 물어야 한다. 과연 모델이 만들어내고 있는 편향성을 지워내려면 어떻게 해야 할까? 언어 모델에서 충분히 다루고 있지 않은 영어가 아닌 언어는 어떻게 해야 할까? 아이러니하게 챗지피티 덕분에 이런 이야기에 귀 기울여줄 사람이 더 많아진 것 같다. 그래서 지금이 우리가 어떤 식으로 나아가야 할지를 이야기할 적기일 수도 있다.

 

 

 

윤진혁 
숭실대 AI융합학부 교수
카이스트에서 열 및 통계물리로 학·석·박사를 했다. 네이버 데이터 사이언티스트, 한국과학기술정보연구원 선임연구원을 역임했다. 「코로나19 팬데믹이 성별에 따른 연구 생산성에 미치는 영향과 그 상관관계」 등의 논문을 썼다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.