UPDATED. 2020-12-03 17:55 (목)
인간과 공생 위한 ‘설명 가능한 AI’
인간과 공생 위한 ‘설명 가능한 AI’
  • 박강수
  • 승인 2020.11.18 09:06
  • 댓글 0
이 기사를 공유합니다

카오스재단 ‘AI 크로스’ 강연 ⑥ AI의 사고과정을 설명할 수 있을까?

카오스재단(이사장 이기형)이 인공지능(AI)을 주제로 2020 가을 카오스강연을 펼치고 있다. 지난달 7일부터 오는 12월 9일까지 매주 수요일 저녁 8시, 총 10회에 걸쳐 내로라하는 전문가들이 강연을 한다. ‘AI 크로스’를 주제로 의학, 기후, 음악, 수학, 로봇 공학 등 각 학문 분야에서 AI를 어떻게 최첨단으로 활용하고 있는지 살펴본다. 이번 6강에서는 최재식 KAIST 교수(AI대학원)가 ‘설명 가능한 인공지능’에 대해 강연했다.

 

카오스재단 ‘AI 크로스’ 강연 및 연재 순서

1 브레인 3.0 AI와 뇌공학이 바꿀 인류의 미래

2 수학을 통하여 세상을 3차원으로 보는 법

3 게놈데이터를 이용한 정밀의료

4 딥러닝으로 엘니뇨 예측하기

5 컴퓨터 비전과 딥러닝의 현재와 미래

6 AI의 사고과정을 설명할 수 있을까?

7 인간지능을 능가하는 인공지능이 출현할 것인가?

8 바이오메디컬 인공지능

9 헬로 딥러닝: 직관적이고 명확하게 딥러닝을 이해하기

10 음악과 인공지능의 만남

 

인간의 학습법을 모사한 머신러닝

단순한 기계와 특별한 인간

슈퍼인공지능 출현 가능성은?

 

기술의 뒷면에는 공포와 불안이 서려 있다. 인공지능도 마찬가지다. 대량실업부터 인권침해까지, AI에 대한 우려는 기대만큼 두텁다. 반환점을 돈 카오스재단의 ‘AI크로스’ 강연에서도 꾸준하게 다뤄진 논점이었다. 3강 정밀의료 편에서는 개인용 의료 데이터의 보안 문제가, 5강 컴퓨터 비전 편에서는 편견이 섞인 데이터를 학습한 인공지능 시스템이 만들어내는 ‘자동화된 차별’이 거론됐다. 이 우려의 근간에는 AI의 사고 과정을 우리가 이해할 수 없다는 사실이 자리한다.

‘설명 가능한 인공지능(eXplainable AI, XAI)’의 문제의식은 여기서 시작된다. AI의 능력이 고도화될수록 AI에 대한 인간의 이해는 얕아진다. 문명의 AI 의존도는 높아지는데 문제가 생길 경우 대응할 지적 인프라는 점점 해체된다. 인공지능이 왜 그런 결정을 내리는지 알 수 없기 때문이다. ‘통제불능의 AI’라는 공포다. 지난 11일 저녁 온라인 생중계된 카오스재단 ‘AI크로스’ 여섯 번째 강연에서는 최재식 KAIST 교수(AI대학원)가 그 공포와 불안에 대답이 될 ‘설명 가능 인공지능 연구’의 쟁점을 짚었다.

지난 11일 최재식 교수는 'AI의 사고과정 이해하기'를 주제로 강연했다. =유튜브 강연 캡처
지난 11일 최재식 교수는 'AI의 사고과정 이해하기'를 주제로 강연했다. =유튜브 강연 캡처

 

오판을 설명 가능해야 신뢰할 수 있다

‘설명 가능하다’라는 점은 사회적 신뢰와 직결된다. 설명 가능해서 안전하다기 보다는 설명 가능하므로 오류와 실수도 이해할 수 있다는 의미다. 최 교수는 파일럿넷(PilotNEt)이라는 딥러닝 시스템을 예로 든다. 파일럿넷은 구글과 엔비디아(NVIDIA)에서 공동 개발한 자율주행자동차용 설명가능 AI다. 자율주행차가 경로를 설정하고 핸들을 꺾는 과정에서 판단의 근거가 된 시각 정보를 화면에 표시해준다. 직진을 하고 우회전을 하는 이유를 운전자에게 설명하는 것이다. 최 교수는 “이런 기능이 없는 자율주행차와 있는 자율주행차 중 무엇을 사시겠습니까”라고 묻는다.

설명가능 AI는 안전과 생명, 재산을 다루는 영역에서 투명성과 신용을 확보하는 데 주로 적용된다. 국방·의료·금융 등 국가와 사회를 움직이는 핵심 영역, ‘미션 크리티컬(Mission Critical) 분야다. 시스템의 중추를 이루기 때문에 신뢰가 어떤 영역보다 중요하다. AI를 활용한 군사 시설과 장비의 고도화, 자동화에 주력해온 미국 국방고등연구계획국(DARPA)의 관심사가 설명가능 AI 연구로 이어지는 일은 그래서 자연스럽다. 여기에 책정된 2020년 예산만 한화로 약 290억원에 이른다.

자율주행차용 설명가능 인공지능 파일럿넷. 화면에 표시되는 초록색 픽셀을 통해 주행에서 방향 전환, 감속 등의 이유를 설명해준다.
자율주행차용 설명가능 인공지능 파일럿넷. 화면에 표시되는 초록색 픽셀을 통해 주행에서 방향 전환, 감속 등의 이유를 설명해준다.

 

8천차원 짜리 딥러닝 신경망 들여다보기

설명의 대상이 되는 기계학습 시스템은 다양하다. 그 중 가장 복잡한 시스템은 딥러닝이다. 딥러닝의 학습 및 의사결정 과정을 파악하기 위해서는 그 복잡한 작동 구조 자체를 들어다 봐야 한다. 최 교수 연구팀에서 개발한 ‘생성 경계를 고려한 딥러닝 돋보기’는 인공지능 내부를 관찰, 분석하는 기술이다. “딥러닝 안은 고차원 공간에 변수가 무수히 많다. 보통 8천 차원 공간에 4천 개 경계선으로 촘촘히 얽혀 있다.” 최 교수의 설명이다. 최근 모델의 경우는 “최대 840만 차원에서 1670만 차원까지” 차원 연결이 극대화된다.

딥러닝 돋보기는 이 복합적 공간을 잘게 잘라 관찰한다. 격자 무늬에서 한 칸씩 떼어내 하나의 구획 안에서 이루어진 결정들의 유사함과 근접한 구획에서 이루어진 결정들과의 상이함을 따져 가며 AI의 사고 과정을 추적하는 원리다. 이를 통해 인공지능 시스템의 입력 값과 산출되는 결과 사이 인과를 파악할 수 있다.

최 교수 연구팀이 개발한 '딥러닝 돋보기' 기술이 딥러닝 시스템 내부를 분석하는 방법을 나타낸 이미지.
최 교수 연구팀이 개발한 '딥러닝 돋보기' 기술은 8천 차원, 4천 경계선으로 짜인 딥러닝 시스템 내부의 구획을 쪼개 같은 구획 안의 결정들이 유사하다는 지점에서 분석을 시작한다.

 

설명가능 인공지능은 통계적 기법과 의사결정나무 등 다른 기계학습 시스템에도 적용된다. 핵심은 결론에 다다른 이유까지 풀이하는 일이다. 예컨대 캠브리지대와 MIT가 공동 개발한 ‘자동 통계학자’라는 설명가능 인공지능 모델은 400년짜리 태양 흑점 데이터를 가지고 예측을 내놓으면서 예측의 근거가 된 분석들, 1600년대 소빙하기, 100년 주기 변화, 11년 주기 변화 등을 정확하게 제시한다. 최 교수는 “’설명 가능’할 뿐 아니라 우리가 이해할 수 있는 용어로 분석, 예측까지 해주는 매우 유용한 시계열(시간 순에 따라 변하는) 데이터 분석 툴”이라 평한다.

이를 응용하면 복합적인 시계열 데이터, 즉 주식 시장 등에 대한 분석도 가능해진다. 최 교수 팀에서 개발한 ‘관계형 자동 통계학자’ 모델은 금, 석유, 나스닥, 달러 가치 변동을 분석해 “(네 분야는) 공통적으로 1.4년 주기로 변화를 보이며, 게 중 금과 석유, 달러는 완만하게 2.7주 주기의 변화를 공유한다”는 식의 설명을 해내는 데 성공했다. “결론만 던져주는 것이 아니라 사람이 수행하는 분석처럼 언어로 설명해주는 시스템”인 것이다.

EU가 2018년부터 발효한 일반정보보호규정(GEPR)에는 알고리즘에 의해 행해진 의사결정에 대해 의미 있는 설명을 요구할 권리가 적시돼 있다.
EU가 2018년부터 발효한 일반정보보호규정(GEPR)에는 알고리즘에 의해 행해진 의사결정에 대해 의미 있는 설명을 요구할 권리가 적시돼 있다.

 

인간적인, 더 인간적인 인공지능

설명 가능함은 신뢰로, 신뢰는 비용 절감과 효용 극대화로 이어진다. 최 교수 연구팀이 포스코와 연계해 개발한 ‘스마트고로’가 대표적이다. 덤프트럭 47대 분량의 철광석이 들어가는 거대한 용광로 내부의 온도를 일정하게 유지하기 위해 온도와 압력 등 다양한 측정 데이터를 학습하고 고로의 상태를 자동으로 파악하면서 조업 조건을 제어하는 설비다. 기존 사람이 하던 모델보다 오차는 25% 줄었고 비용은 약 200억원 가량 절감됐다. 이 성능을 인정받아 지난해에는 69개뿐인 한국의 국가핵심기술로 지정됐다. 딥러닝 기술 중에서는 첫 등재다.

설명 가능 인공지능은 결국 더 친절하고 더 ‘인간적인’ 인공지능으로 가는 길이다. 최 교수는 “설명을 위해서는 모든 정보를 다 보여주는 것이 아니라 필요한 정보를 선택적으로 조합해 제시하는 과정이 핵심”이라고 강조하며 “사람은 잘하는데 인공지능에게는 어려운 과제다”라고 말한다. “설명 가능 인공지능이야말로 AI와 인류의 조화로운 공존을 위한 핵심 기술”이라고 최 교수는 강조한다.

 

 

박강수 기자 pps@kyosu.net

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.