UPDATED. 2022-06-27 11:48 (월)
인하대, 음성 메타학습이 가능한 인공지능기술 개발 과제 수주
인하대, 음성 메타학습이 가능한 인공지능기술 개발 과제 수주
  • 배지우
  • 승인 2022.05.19 10:25
  • 댓글 0
이 기사를 공유합니다

- ‘인공지능 핵심원천기술 개발사업’ 선정
- 5년간 총 50억 지원받아 ‘음성 메타학습’기술 연구
- 장애우의 목소리를 알아듣게 바꾸어주는 착한 인공지능 기술의 실현

인하대학교(총장 조명우)는 산업경영공학과 이우기 교수가 이끄는 연구팀이 과학기술정보통신부 및 정보통신기획평가원(IITP)이 지원하는 ‘인공지능 핵심원천기술 개발사업’에 선정됐다고 19일 밝혔다.

(왼쪽부터) 인하대 산업경영공학과 이우기 교수, 전자공학과 김덕환 교수, 산업경영공학과 허영범 교수, 의과대학 이현규 교수.
(왼쪽부터) 인하대 산업경영공학과 이우기 교수, 전자공학과 김덕환 교수, 산업경영공학과 허영범 교수, 의과대학 이현규 교수.

이우기 교수 외 인하대 전자공학과 김덕환 교수, 의과대학 이현규 교수, 산업경영공학과 허영범 교수 그리고 서울대 지능정보융합학과 이교구 교수, 컴퓨터공학부 강유 교수, 카이스트 AI 대학원 윤세영 교수가 연합한 연구팀은 ‘메타학습(Meta Learning)’을 주제로 연구를 진행하며, 향후 5년간 총 50억 원을 지원받는다.

메타학습이란 학습하는 방법을 학습한다는 개념이다. 연구팀은 인공지능에서도 인간처럼 하나를 배우면 열을 아는 학습능력을 구현하는 기술을 연구한다. 인공지능이 경험을 기반으로 학습을 해 문제를 빠르게 해결하도록 한다.

인공지능은 인간보다 뛰어난 성능과 판단력을 보이고 있지만, 아직까지 상당히 많은 양의 데이터가 있어야만 학습이 가능해 인공지능의 능력이 양질의 빅데이터 확보에 달려 있다는 한계가 있다. 연구팀은 이를 보완해 인간처럼 하나만 배워도 금방 새로운 대상을 추측할 수 있도록 동작하는 인공지능 학습 시스템을 구현할 예정이다.

인하대는 지난 2019년 VOICE AI 연구소(소장 이우기)를 설립해 언어를 기반으로 한 메타학습의 원천기술을 개발 중이다. 기존 인공지능과 달리 영상 및 소리 외에 생체신호까지 포함하는 멀티모달(Multi-modal) 방식을 통해 인간에 더욱 가까운 언어 메타학습 기법을 연구하고 있다. 

메타 음성언어 인공지능 연구를 통해 언어의 원천성을 파악하게 되면 많은 분야에 응용이 가능하다. 최근 주목받고 있는 메타버스 플랫폼에서도 뛰어난 개인화와 보안성을 바탕으로 차원이 다른 기술을 적용할 수 있다. 메타버스 공간에서 개인 간 계약서 작성부터 입금에 이르기까지 현실세계와 똑같은 활동이 가능해지는 것이다. 

특히 발성이 곤란한 장애인과 사회적 약자에게 더 나은 삶을 제공할 것으로 기대된다. 장애우의 엉클어진 말소리를 선명하게 변환하거나 노인의 쇳소리 나는 목소리도 알아듣게 바꾸어주는 착한 인공지능 기술의 실현이다.

사업 책임자인 이우기 산업경영공학과 교수는 “현대의 편리한 신기술들은 장애인을 도우려다가 개발됐다. 심지어 훈민정음도 세종대왕이 불쌍한 백성들을 위해 만들었다. 이번 연구도 장애우 돕기가 일차적 목표이고, 그다음 사회 일반에 파급되어 혜택을 줄 것이다.”라며 “인공지능이 훈민정음과 한글에 적용돼 K-pop이나 외국어 공부에 새로운 문이 열리는 날이 머지않아 다가올 것이다”라고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.