[자연과학] 생태 과학 칼럼 모음

[김병필의 인공지능 개척시대] 인공지능도 '사람이 먼저'다

푸레택 2022. 6. 14. 13:33

[김병필의 인공지능 개척시대] 인공지능도 '사람이 먼저'다 (daum.net)

 

[김병필의 인공지능 개척시대] 인공지능도 '사람이 먼저'다

2016년 구글(Google)은 안과 전문의 수준의 의료 인공지능을 발표했다. 망막 사진을 보고 당뇨병 망막병증이 있는지 진단하는 것이다. 의사가 이 인공지능의 도움을 받으면 의료 영상 판독의 정확

news.v.daum.net

AI에는 불완전·불확실성 있어
인간이 한계 인지할 수 있어야
사람중심 인공지능 추구하려면
이용자와의 상호작용 고려해야

2016년 구글(Google)은 안과 전문의 수준의 의료 인공지능을 발표했다. 망막 사진을 보고 당뇨병 망막병증이 있는지 진단하는 것이다. 의사가 이 인공지능의 도움을 받으면 의료 영상 판독의 정확도가 개선된다고 한다. 매우 유용하다. 2019년 구글은 새로운 ‘설명’ 기능을 추가했다. 인공지능이 왜 그렇게 진단했는지를 전문의에게 설명해 주는 것이다. 무엇보다 망막 사진에서 병증 의심이 있는 부분을 강조해서 보여준다. 새로운 기능이 추가되었으니, 진단의 정확성이 개선되었을까? 실험 결과, 병증이 없는 경우에는 오히려 정확도가 떨어졌다. 인공지능이 잘못 진단한 경우를 의사들이 제대로 걸러내지 못한 것이다. 의사의 진단에 도움이 되게 하려고 설명 기능을 추가했는데, 그 결과 인공지능의 판단을 지나치게 신뢰하게 만드는 역효과를 낳았다.

우리는 은연중 인공지능을 마법의 도구처럼 여기는 경향이 있다. 인공지능이라면 이용자가 무엇을 원하는지 정확하게 이해하고, 완벽한 해결책을 찾아내 흠잡을 데 없는 결과를 가져올 것으로 기대한다. 안타깝게도 현실은 그렇지 못하다. 세상은 항상 불확실하고 불완전하기 마련이다. 세상의 데이터를 학습한 인공지능도 마찬가지다. 그래서 사람들이 인공지능의 한계를 항상 염두에 두고 사용할 수 있도록 배려해야 한다. 그렇지 않으면 구글 사례처럼 원래 의도한 것과 상반되는 결과가 초래될 수 있기 때문이다.

여러 분야의 공학자들은 오랫동안 이 문제를 어떻게 해결할지 연구해 왔다. 신기술을 통해 인간 작업을 자동화할 때 사람들이 어떻게 반응하는지를 살피는 것이다. 크게 보면 과소 이용의 문제와 과잉 이용의 문제가 발생할 수 있다. 사람들은 인공지능의 성능이 좋지 못하거나, 사용하기 불편하다고 여기면 충분히 이용하지 않는다. 즉, 과소 이용이 발생한다. 그러면 자동화를 위해 투자한 비용이 무용지물이 되는 셈이다. 기대한 생산성 증진 효과를 얻지 못할 수도 있다. 반대로 과잉 이용도 문제다. 인공지능이 일을 제대로 처리했는지 사람이 점검하고, 문제가 있는 경우를 걸러낼 수 있어야 한다.

인공지능의 문제점을 의도적으로 악용하는 사람도 유의해야 한다. 해커들이 호시탐탐 전산망의 보안 허점을 노리는 것처럼, 인공지능이 엉뚱하게 동작하게끔 유도하는 사람들이 나오기 마련이다. 온라인 게임의 오류를 이용해 게임 머니나 아이템을 얻는 사례는 이미 친숙하다. ‘이루다’ 챗봇 이용자들도 온갖 부적절하고 공격적 대화를 시도해서 ‘이루다’의 부적절한 답변을 유도했다. 인공지능 개발 때에는 항상 예견 가능한 이용자의 부정이용에 대비해야 한다.

요컨대 인공지능이 소기의 목적을 달성하려면 인간과 인공지능 간의 상호작용을 고려하는 것이 중요하다. 이 문제를 전문적으로 연구하는 학문 분야를 ‘휴먼 컴퓨터 인터페이스’라 부른다. 하지만 국내에서는 아직 이 문제에 관한 관심이 충분하지 못하다는 아쉬움이 들 때도 있다. 예를 들어 보자. 여러 매장에서 무인 주문기로 판매원을 대체하는 경우가 늘어나고 있다. 그런데, 얼마 전 한 노령자가 한참 동안 무인 주문기로 음식을 주문하려 했으나, 계속 실패하고 결국 자리를 떴다고 한다. 가슴 아픈 이야기다. 게다가 매장 중에는 무인 판매기를 설치해 두었으나, 이를 보조하는 직원이 옆에 서 있는 경우도 적지 않다. 지나치게 복잡하거나 어려운 탓에 직원의 도움이 필요한 것이다.

이 문제는 인공지능 활용 실패뿐만 아니라 사회의 분절과 소외로 이어질 수 있다. 아무래도 신기술에 익숙하지 못한 연령이나 계층에 피해가 돌아갈 가능성이 크다. 이들은 변화하는 사회에서 도태되고 있다고 느끼고, 공동체에서 함께 살아가는 느낌을 공유하지 못할 수 있다. 그래서 과기정통부가 작년에 내놓은 인공지능 윤리 기준은 ‘사람 중심의 인공지능’을 핵심 가치로 제시하였다.

물론 여러 기업이 이용자 친화적인 인공지능 개발을 위해 상호 경쟁하면 점차 개선될 것이다. 정부 차원에서는 이러한 노력을 더욱 장려할 정책을 펼치면 좋겠다. 이용자들이 인공지능을 잘 이해하고 손쉽게 이용하고 있는지 측정하고, 전문가들이 개선점을 알려주는 제도를 생각해 볼 수 있겠다. 이용자 친화적인 우수 시스템에는 인증 마크를 부여하거나 모범 사례를 추천하는 것도 방법이다. 좋은 인공지능의 확산은 결국 이용자와의 상호 작용에 달려 있다는 것을 명심하자.

김병필 KAIST 기술경영학부 교수ㅣ중앙일보ㅣ2021.08.09

/ 2022.06.14 옮겨 적음