UPDATED. 2024-04-28 01:20 (일)
컴퓨터·공학자가 본 AI...“추론능력과 신뢰도 떨어진다”
컴퓨터·공학자가 본 AI...“추론능력과 신뢰도 떨어진다”
  • 김재호
  • 승인 2023.08.14 08:02
  • 댓글 0
이 기사를 공유합니다

‘챗지피티, 인간에게 묻다’ 특별좌담
왼쪽부터 문태섭 서울대 교수(전기정보공학부)와 강승식 국민대 교수(인공지능학부)다. 사진=철학과 현실

“인간처럼 추론하는 인공지능을 개발하는 것은 어렵다.” 문태섭 서울대 교수(전기정보공학부)는 “현재의 학습 패러다임과 컴퓨터 성능, 데이터 크기만으로는” 한계가 있다며 이같이 강조했다. 계간지 <철학과 현실> 여름호(통권 137)는 ‘챗지피티, 인간에게 묻다’ 특별좌담을 열었다. 문 교수는 “어떻게 더 작은 모델로 인간의 뇌처럼 추론할 수 있는지는 실제로 연구 주제가 되기도 한다”라며 “인간의 뇌는 30W밖에 사용하지 않는데, 컴퓨터는 MW를 사용하고 있어서 같은 방식으로 수행되고 있는 것은 아니기 때문에 현재 기술로는 터미네이터와 같은 인류 멸망은 일어나지 않을 것으로 생각한다”라고 지적했다. 

인공지능의 한계와 더불어 신뢰도 역시 문제다. 강승식 국민대 교수(인공지능학부)는 “챗지피티는 정확한 답을 생성하기보다는 자연스러운 답을 생성하는 데 중점을 두고 있어서 신뢰도가 높은 전문 지식이라고 믿으면 절대로 안 된다”라며 “신뢰할 수 있는 부분 90%와 정확하지 않은 부분 10%로 이루어져 있다고 여기고 유의하면서 활용을 해야 내가 원하는 대로 활용할 수 있다”라고 말했다.

김재호 기자 kimyital@kyosu.net 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.