본문 바로가기

  • 과학기술정보
  • 과학기술 핫 뉴스

과학기술 핫 뉴스

AI 신뢰성 높이려면 ‘설명가능’해야

학교로 찾아가는 진로 컨설팅 상세
작성일 2017-12-22
첨부파일
AI 신뢰성 높이려면 ‘설명가능’해야

STEPI '한-캐나다 과학기술혁신 심포지엄'
  
 
알파고나 왓슨 등 최근에 다방면에서 활약을 하고 있는 인공지능(AI)은 모두 딥 러닝(Deep learning)을 통해 학습을 해왔다. 딥 러닝은 빅 데이터를 통해 수많은 사례를 보여줌으로써 기계가 스스로 학습하도록 하는 것으로, 머신 러닝(Machine learning)라고도 부른다.

그런데 이제는 딥 러닝을 넘어서 ‘설명가능 인공지능(EXplainable Artificial Intelligence)’을 개발하고 있다. 지난 19일 과학기술정책연구원(STEPI) 주최로 열린 ‘한-캐나다 과학기술혁신 심포지엄’에서 최재식 UNIST 교수는 현재 자신이 개발 중인 설명가능 인공지능에 대해 이야기했다.

DSC07748.jpg

                     최재식 UNIST 교수가 ‘설명가능 인공지능’에 대해 강연하고 있다. ⓒ 김순강 / ScienceTimes


판단 이유를 설명할 수 있는 인공지능

현재 UNIST의 설명가능 인공지능 연구센터장이기도 한 최 교수는 “현재 인공지능은 수많은 고양이 사진과 그림을 보면서 고양이의 특징을 파악하는 딥 러닝 과정을 거치면서 실제 동물을 봤을 때 고양이인지 아닌지를 판단하고 있는데, ‘설명가능 인공지능’은 어떤 특징 때문에 고양이라고 판단했는지 그 이유까지 설명할 수 있는 차세대 인공지능을 말한다”고 설명했다.

즉 빅 데이터의 인과관계를 분석해서 인공지능이 내린 판단에 대해 합리적인 이유와 근거를 제시하여 사람이 이해할 수 있는 형태로 설명할 수 있는 인공지능이란 얘기다. 최 교수는 “최근에 사람의 눈으로는 포착할 수 없는 동성애 성향의 얼굴을 찾아낼 수 있는 인공지능 소프트웨어가 개발되어 인권침해라는 논란이 일었는데, ‘설명가능 인공지능’이라면 이 같은 위험성을 피할 수 있다”고 밝혔다.

또 병명을 판단하는 인공지능과 의료진의 진단이 서로 달랐을 경우 임상에서 어느 것을 적용해야 하느냐 하는 문제에도 ‘설명가능 인공지능’의 역할이 필요하다는 것이다. 왜냐면 인공지능이 왜 그런 병명으로 판단을 내렸는지 그 이유를 설명할 수 있다면 얼마든지 의료진과의 견해차를 줄이고 조율을 해서 보다 더 합리적인 적용 방법을 찾아낼 수 있을 뿐 아니라 인공지능에 대한 불안감도 해소할 수 있기 때문이다.

최 교수는 “미 국방부 방위고등연구계획국(DARPA)에서는 이미 인공지능이 문제를 어떻게 해결했는지 스스로 설명하게 만드는 프로젝트를 진행 중”이라며 “현재 인공지능이 이미지를 인식하거나 자동차를 운전할 때 어떤 경로를 통해 문제 해결에 도달했는지 AI 전문가도 파악하지 못하고 있는데, 이를 정확히 이해를 해야만 AI 개발의 한계를 뛰어넘을 수 있다”고 강조했다.

‘설명가능 인공지능’은 예측에 신뢰성도 확보

이뿐만 아니라 현재 금융 분석이나 기사 작성에 활용되고 있는 인공지능의 미래 예측에 신뢰성을 높이는데도 ‘설명가능 인공지능’이 큰 몫을 할 수 있다는 주장이다. 최 교수는 “미국 AP통신에서 매일 3천 개의 기사가 인공지능에 의해 생성되고 있는데, 야구 경기와 관련된 기사를 보면 사람이 쓴 것인지, 소프트웨어가 쓴 것인지 구분이 어려울 정도”라고 언급했다.

게다가 “데이터를 바탕으로 인공지능을 이용하여 문서를 자동 생성하는 경우는 오자나 오기 등 실수가 사실상 없다는 점과 사용자의 요구에 맞는 기사를 얼마든지 만들어 낼 수 있기 때문에 총 인건비가 절감된다는 것이 큰 장점이 아닐 수 없다”고 설명했다.

DSC07744_20171220063649.jpg

        지난 19일 ‘한-캐나다 과학기술혁신 심포지엄’이 그랜드 앰버서더호텔에서 열렸다. ⓒ 김순강 / ScienceTimes

하지만 지금은 인공지능의 맥락 이해 없이, 정해진 틀 즉 탬플릿(template)에서 단순히 숫자만 바꾸는 형식으로 기사가 생성되기 때문에 전망 기사나 미래 예측성 기사는 만들어내기가 어렵다는 것이다. 쓰더라도 신뢰하기 어렵다는 단점이 있다.

최 교수는 이런 단점도 ‘설명가능 인공지능’으로 얼마든지 해결할 수 있다고 자신했다. 그는 “만약 인공지능이 일정 기간에 대해 시간의 함수로 표현되는 시계열 데이터를 분석하는데 있어서 ‘설명 가능 인공지능’이 알고리듬에 의해 생성된 데이터의 분석 이유를 설명할 수 있다면 금융시장이나 주택시장 등에 적용해서 정부 정책 결정에까지 영향을 미칠 수 있을 것”이라고 설명했다.

따라서 최재식 교수는 “제조업 공장에서 많은 인공지능 기술들이 활용되고 있는데, 아무리 인공지능 로봇이 강화학습을 통해 사람을 똑같이 모사한다고 할지라도 왜 그것을 하는지에 대한 설명을 할 수 없다면 중요한 작업에 적용시키기가 어렵다”며 “4차 산업혁명 시대를 이끌 수 있도록 인공지능을 잘 이용하려면 무엇보다 ‘설명가능 인공지능’이 필요하다”고 강조했다.


김순강 객원기자다른 기사 보기pureriver@hanmail.net
저작권자 2017.12.20 ⓒ ScienceTimes
출처 : http://www.sciencetimes.co.kr/?news=ai-%ec%8b%a0%eb%a2%b0%ec%84%b1-%eb%86%92%ec%9d%b4%eb%a0%a4%eb%a9%b4-%ec%84%a4%eb%aa%85%ea%b0%80%eb%8a%a5%ed%95%b4%ec%95%bc