유창동 카이스트 교수는 8월 21일 서울 중구 소공동 플라자호텔에서 'AI의 현재와 미래' 세미나에서 "이제는 인공지능이 사람까지 평가하는 시대"라며 "앞으로 공정하고 책임감 있고 투명한 인공지능을 개발해야 한다"고 강조하며 이같이 말했다. 사진=뉴시스

한국인공지능학회장을 맡고 있는 유창동 카이스트 교수는 “인공지능이 다양한 영역 활용되며 이제는 사람까지 평가하게 됐다"고 말했다.
 
그는 8월 21일 서울 중구 소공동 플라자호텔에서 열린 뉴시스 AI 경제 포럼 'AI의 현재와 미래'에서 '인공지능이 이룬 혁신과 공정성'을 주제로 특별강연을 하며 "이제는 인공지능이 사람까지 평가하는 시대"라며 "앞으로 공정하고 책임감 있고 투명한 인공지능을 개발해야 한다"고 강조하며 이같이 말했다.
 
유 교수는 "죄수의 보석 여부, 채용 과정에서 1차적 판단, 신용 평가까지 AI가 평가하기 시작했다"면서 "단순히 한 사람의 재산, 소득을 평가하는 게 아니라 상황, 인격, 책임감 등을 평가해 이를 기반으로 대출 등 금융 서비스도 진행하고 있다"고 덧붙였다.
 
그는 AI의 막강한 능력 보유와 관련해 데이터의 관습적인 편향성도 지적했다. 인공지능이 이같은 능력을 가지려면 데이터로부터 지식을 얻어야 하는데 데이터에는 관습적인, 역사적으로 형성된 편향성이 있게 마련이다. 인공지능이 이같은 자료를 읽고 수치화해 이해한다면 결과적으로 편향성이 나타날 수 있다는 것이다.
 
이에 대해 유 교수는 "우리는 취약계층을 보호해야 한다. 성별, 종교, 부, 지역, 장애, 정치적 성향, 나이, 학벌에 대한 편향성이 있으면 안된다"라며 "보호변수(취약계층)에 공정하게 이뤄져야 한다"고 강조했다.
 
유 교수는 “공정한 인공지능이 세계적 트렌드"라며 “공정하고, 책임감 있고, 투명한 'FAT(Fair, Accountable, Transparent)' AI를 개발해야 한다"면서 "인공지능을 만들 때 편향성을 제거하기 위해서는 평등과 공정성을 고려해야 한다. 활용 영역에 따라 그룹 공정성과 개별 공정성을 동시 판단해야 한다"라고 했다.
 
 

 

ⓒ 서울스트리트저널 무단 전재 및 재배포 금지