본문내용바로가기

줌 인 버튼 줌 아웃 버튼

상식

상식

인공지능에 기반을 둔 의사결정을 과연 신뢰할 수 있을까?

<KISTI의 과학향기> 제3268호

사물이 어떤 방식으로 동작하는지를 알기를 원하는 인간의 의구심으로 인해 일부 기술들의 신뢰도 문제가 불거지고 있는 가운데, 확률론에 기반을 둔 기기학습 알고리즘은 전문가 조차도 특수한 결정을 내리는 방식을 정확히 파악하기가 어려울 수 있다고 한다.
 
물론 추천을 해주는 어플리케이션이나 서비스에서는 문제가 되지 않지만 투명성이 부족한 경우에는 건강서비스나 보험가격 책정과 같은 서비스에 해당 요소가 도입될 경우, 이를 받아들이는 사람들의 입장에서는 매우 불안한 요소로 자리잡을 수 있는 여지가 있다 하겠다.
 
인공지능 기반의 자동화된 의사결정 플랫폼인 Rainbird社의 최고경영자인 Ben Tailor씨는 기기학습 모델을 사용해 가격을 매길 수는 있으나 성별이나 민족성, 혹은 기타 요소들에 대한 가격책정이 가능한지 여부에 대해서는 알 수 없다는 점을 언급하며, 신뢰성이 결여된 기술은 확대되는데 오랜 시간이 걸릴 수 있으며 이는 전자렌지가 대중들의 뇌리에 방사능이라는 단어와 연관되지 않아 보다 빨리 주방 내 표준형 조리기구로 자리잡게 될 수 있었던 사례와도 맞물려 생각해봐야 한다는 점을 언급한 것으로 나타났다.
 
알고리즘의 불투명성 또한 인공지능이 내린 결정에 대해 궁극적으로 누구에게 책임이 귀책되는지와 관련된 다양한 유형의 법적 질의가 제기될 수 있을 것으로 보이는데, 현재까지도 해결되지 않은 지난 80년대의 자동화된 치료법에 대한 소송이 그 사례에 해당된다고 한다. 특히 인공지능과 관련된 법안은 법률적 정의가 매우 느슨할 뿐 아니라 빠르게 진행되는 기술의 진보와는 달리 법적인 절차는 그 속도를 따라잡을 수 없어 보다 많은 복잡성을 양산해낼 수 밖에 없기 때문이라고 한다.
 
이로 인해 서비스 제공업체들은 인공지능 기반의 의사결정에 감사기능을 구축하는 것에 관심을 갖게 되었으며, IBM社를 비롯해 몇몇 사업자들은 데이터 과학자들이 이러한 의사결정모델을 어떤 방식으로 만들고 사용할 수 있는지를 알려주는 도구를 배포하고 있다고 한다. 이에 현재 데이터 과학자들은 감사자들에게 특정한 의사결정을 내린 이유를 설명할 수 있으며 의사결정의 모델이 동작하는 원인을 설명할 수 있을 것으로 예상되어 앞으로는 감사기능이 대부분 데이터 과학의 주도 하에 이루어질 수 있을 것으로도 예상해볼 수 있다 하겠다.
 
결국 인간을 모든 의사결정의 중심에 두기 위해서는 이해가 가능한 시스템을 구축할 수 있어야 하고 이러한 시스템들이 신뢰를 기반으로 만들어져야 할 것임을 의미하고 있으며, 대다수 인공지능에 기반을 둔 의사결정에 있어 인간이 궁극적인 조정자 역할을 하는 것이 앞으로 중요할 것으로 예상되고 있다 하겠다.

평가하기
인기 스토리
추천 콘텐츠
쿠키를 지원하지 않는 브라우저이거나 브라우저 설정에서 쿠키를 사용하지 않음으로 설정되어 있는 경우 사이트의 일부 기능(로그인 등)을 이용할 수 없으니 유의해 주시기 바랍니다.