[IT 알아보기]/IT 소식

AI 어디까지 믿을 수 있을까, 빅데이터의 불편한 진실

이호스트ICT 2019. 10. 14. 16:51

 

 

 

 

 

 

 

AI 관련하여 <마이너리티리포트>란 영화를 추천 드리고 싶습니다. 

 

미래를 다룬 수많은 영화가 있지만, 앞으로 펼쳐질 미래상을 가장 현실성 있게 그렸고, 사회상과 인간 심리를 가장 깊이 있게 묘사해서입니다.

17년 전에 출간된 2002년작 마이너리티리포트에 등장하는 미래상은 현재의 신기술·산업발전의 발전상과 매우 유사합니다.

도로 인프라와 연계해 운행하는 자율주행자동차, 홀로그램 디스플레이, 인간의 욕망을 채워주는 VR 서비스, 마이크로로봇.

 

 

이뿐만 아니라 기업의 마케팅, 사회 시스템까지 심도 있게 표현했습니다.

 

 

그러나 공원·놀이터처럼 부가가치 창출이 어렵고 신기술의 니즈가 크지 않은 요소는 현대 사회의 모습에서 크게 발전하지 않은 것으로 그립니다. 

현실적이죠. 영화의 배경은 2054년입니다. 앞으로 35년 뒤의 일인데, 현실도 영화처럼 발전했으면 하는 바람입니다.

 

 

 

 

이런 여러 신기술을 뒤로하고 영화의 메인 소재는 엉뚱하게도 세 명의 예언자입니다. 이들이 범죄 발생 시간과 장소, 피해자·피의자를 예견합니다.

이 정보를 받은 예방범죄국 경찰들이 범죄를 사전에 차단하는 것이죠. 2명의 남성, 1명의 여성 예언자인데, 성경의 삼위일체를 연상시킵니다.

 

 

이 예언자는 미래의 인공지능(AI)을 상징합니다.

 

 

빅데이터와 체계화된 알고리즘을 통해 범죄를 예상한다는 것이죠.(실제 현재 국제연합(UN) 등은 범죄 데이터를 통한 AI 알고리즘 구축을 준비하고 있습니다.)

세 명의 예언자가 낸 리포트를 교차 검증해 최종 보고서를 예방범죄국 요원들에게 전달합니다.

 

 

실제로 이런 AI 알고리즘 기법은 존재합니다.

 

‘앙상블(ensemble) 기법’이란 방법인데, 하나의 데이터를 여러 AI 방법론으로 검증합니다.

 

여러 방법으로 검증한 결과를 교차 검증해 하나의 결과를 도출함으로써 오류를 줄이는 식입니다. 

그러나 영화에서는 이 정교한 시스템조차 붕괴합니다. 인간에 의해 범죄 예언이 조작될 수 있다는 것이 드러나서죠.

 

잘못된 욕망을 쥔 악당이 등장해 예언자의 기억과 데이터를 조작해 무고한 사람을 범죄자로 몰아갑니다.

 

 

 

 

델라웨어대 형사사법학부의 조엘 베스트 교수는 그의 책 <통계라는 이름의 거짓말>에서 통계를 냉정하게 지적합니다. 

 

 

세상에 세 가지 거짓말이 있다. 선의의 거짓말, 새빨간 거짓말 그리고 통계다. 숫자는 거짓말을 하지 않는다. 다만 거짓말쟁이는 숫자로 말한다.

조엘 베스트 <통계라는 이름의 거짓말>

 

 

빅 데이터는 거짓말을 하지 않지만 이를 해석하고 알고리즘을 설계하는 과정에서 거짓말이 반영될 수도, 인간의 편견이 반영될 수도 있습니다. 

 

대상군의 부적절한 비교 등 통계 오용 문제도 있습니다.

사회통계학적으로 모든 독립변수를 반영하거나 통제하는 것은 불가능한 일입니다.

 

 

 

 

 

 

 

 

통계 자체가 거짓말을 때도 있습니다. 소크라테스는 만인들에게 "너 자신을 알라"고 말했다고 합니다.

 

약 2500년이 지난 현대 지식인들은 고대 철학자의 말처럼 나 스스로를 알게 됐을까요.

 

가장 많이 사용되는 사회통계는 여론조사인데, 실제 여론과 다른 결과가 나오기 일쑤죠.

2016년 수많은 미국 매체들이 여론조사 결과를 토대로 힐러리 클린턴이 대통령에 당선할 것으로 예상했습니다.

 

그러나 뚜껑을 열고 보니 도널드 트럼프가 근소한 차로 승리를 거두고 대통령이 됐습니다.

당시 언론에서는 여론조사가 빗나간 원인으로 '샤이 트럼프' 현상을 제시했습니다.

 

 

많은 사람들이 트럼프를 지지한다기 말한다 말하기 부끄러워 침묵하거나 엉뚱한 답을 했다는 것이죠.

 

 

 

 

 

지난 미 대선에서 패한 힐러리는 여론조사에서는 꾸준히 트럼프에 앞섰다.

 

 

 

 

지난 미국 대선의 틀린 여론조사처럼 인간의 뇌는 솔직하지 못합니다.

 

 

자신이 그린 이상향의 모습대로 자기 모습을 묘사하다든가, 기사의 베스트 댓글에 자기 의견을 맞춘다든지, 조금 더 자극적인 콘텐트에 손을 뻗습니다.

 

현재 여러 추천 서비스 등에 사용되는 빅데이터는 이런 뇌의 잘못된 신호를 받은 결과에 기반을 두고 있습니다.

데이터라는 말은 가치중립적인 것처럼 보이지만 실제로는 반쪽짜리 진실입니다.

 

 

기술자들은 또 이 데이터로 알고리즘을 설계합니다.

 

 

데이터를 생성한 사람이나 알고리즘을 짜는 기술자나 서로 뭐가 맞고 틀렸는지도 모른 채 AI가 우리 세상에 안착하고 있는 중입니다.

빅데이터를 수집하지 않고도 AI라고 우기는 업체들이 나와도 뭐라 비판하기 어려운 상황입니다.

 

최근 월스트리트저널(WSJ)이 ‘Engineer.ai’란 애플리케이션 개발 AI 플랫폼 스타트업을 저격하고 있죠.

이 회사는 프로그램 개발의 초기 과정을 AI가 대신하는 기술을 개발했다고 하는데, 실제로는 사람이 직접 이 과정을 대행해주고 있는 것 아니냐는 의혹을 받고 있습니다.

 

인도 등 인건비가 저렴한 나라의 개발자를 고용해 프로그램 초기 개발을 해주는 것이죠.

막대한 AI 개발비용을 들이느니 이런 SI 식 사업 모델이 더 유용할지 모르겠습니다.

 

 

 

흥미로운 점은 알고리즘을 사용하지 않은 많은 사람들이 이런 AI의 맹점을 직관적으로 간파하고 있다는 점입니다.

 

 

가장 대표적인 것이 AI 취업관입니다.

 

 

최근 채용의 형평성 문제가 중시되며 서류심사나 면접관의 중립성이 더욱 강조되고 있습니다.

이에 AI를 이용한 채용 알고리즘이 많이 사용되고 있습니다.

 

그런데 취업 커뮤니티에 가 보면 AI 채용 파훼법이 많이 공유되고 있습니다.

자기소개서에 ‘열정’이나 ‘창의력’ 같은 긍정어를 많이 사용하라, 다만 너무 많이 사용하면 진정성에서 걸러질 수 있으니 몇 번 정도만 쓰라.

 

AI 면접을 볼 때 시선을 피하면 거짓말로 인식한다, 눈을 크게 뜨고 정면을 주시하라. AI 채용은 빅데이터를 사용한다지만, 이미 비전공자들도 예상 가능하게 

설계되고 있죠.  특히 알파고가 이세돌 9단이 둔 78수 이후 실수를 연발하며 패배한 것처럼 AI는 돌발 상황에 잘 대응하지 못합니다.

 

머신러닝·딥러닝으로 이런 문제를 보완하고 있지만, 아직까지 실체화된 서비스는 나오지 않고 있습니다.

요즘 스타트업에 거품 논란이 일고 있고, 신용 리스크로 확산하는 것 아니냐는 앞서간 전망도 나옵니다.

 

그러나 실체나 시장성 없는 AI 개발 기업에 막대한 투자금이 몰리는 것을 보면 딱히 틀린 관측은 아니란 생각도 듭니다.

 

AI와 빅데이터는 전가의 보도, 미래로 가는 열쇠는 아닙니다. 신기술을 볼 때는 어떻게 만들어졌고, 무엇을 바꿀 수 있는지 냉정하게 따져볼 필요가 있어 보입니다. 

 

 

 

 

 

<원문>

https://m.post.naver.com/viewer/postView.nhn?volumeNo=26394474&memberNo=2708007&searchRank=31