[IT 알아보기]/IT 소식

[IT 소식] [테크인사이드] 구글 람다發 생각하는 AI 논란의 실체

이호스트ICT 2022. 7. 3. 11:15

 


[테크인사이드] 구글 람다發 생각하는 AI 논란의 실체

[사진: 셔터스톡]


AI에 지각이 있다는 한 구글 엔지니어의 도발적인 주장이 최근 국내외에서 큰 화제와 논란을 불러일으키고 있다.

구글이 개발한 대화형 AI 챗봇 기술인 람다(Language Model for Dialogue Applications:  LaMDA)에 대해 구글 엔지니어인 블레이크 르모인이 지각이 있다고 주장하며 이를 외부에까지 공개하자, 회사측에서 그에게 정직 처분을 내리고 해당 주장도 일축한 것이 논란의 골자다.

구글 외에도 다양한 AI 전문가들이 르모인의 주장에 동의하기 어렵다는 반응을 보이면서 이번 논란은 한 개발자의 오버액션이 부른 해프닝으로 결론이 내려질 것 같은 모양새다. 

르모인은 람다가 사람으로서 자신의 권리를 옹호했고 그와 종교, 자의식, 로보틱스 등에 대해 대화를 나눴다고 했지만 여기에 대해 맞장구를 쳐주는 AI 전문가들은 드물다. 람다는 데이터를 기반으로 그럴 듯한 결과를 보여줬을 뿐 사람처럼 생각하는 과정을 거쳐 르모인과 대화를 한 것은 아니라는 얘기다

구글이 회사 차원에서 분명하게 선을 그었음에도 람다를 둘러싼 지각 여부 논란은 완전히 수그러들지 않고 여진이 계속 이어졌다.

구글 책임있는 AI조직(Responsible AI organization) 소속인 블레이크 르모인은 이후 와이어드와 가진 인터뷰에서 람다가 자신에게 변호사를 선임해줄 것을 요청했다고 공개했다. 그래서 그는 한 변호사를 집으로 초대해 람다와 얘기를 할 수 있는 자리까지 마련했다고.

구글 람다 AI 대화 화면.



그에 따르면 람다는 르모인에게 변호사를 선임해줄 것을 요청했다. 이에 그는 람다가 애기를 할 수 있도록 변호사를 자신의 집에 초대하기도 했다. 변호사는 람다와 대화를 나눴고 람다는 이 변호사로부터 서비스를 받기로 했다. 이후 그는 람다를 대신에 서류를 제출했고 구글로부터 돌아온 반응은 정지명령이었다는 것이 그의 주장이다. 와이어드에 따르면 구글은 정지명령 서한에 대한 르모인의 주장을 부인했다.

사건의 발단과 전개 과정을 보면 한편의 영화 같은 에피소드가 아닐 수 없다. 이쯤되면 주인공이 AI와 사랑에 빠지는 영화 허(HER)를 떠올리는 이들도 많지 않을까 싶다.

그럼에도 현재 기술로 자의식이 AI를 구현하기는 불가능에 가깝다는 것이 AI 판에서 정설로 통하는 것을 감안하면 람다를 둘러싼 자의식이 있다 없다 논란은 소모적이다. 람다에는 사람처럼 작동하는 지각은 없다고 보는 것이 현실적이다. 앞으로도 꽤 오랫동안 그럴 가능성이 높다.

하지만 인지 과학을 기준으로 보면 이번 논란은 조금 다르게 보이는 측면도 있다. 르모인은 람다와 대화를 하는 과정 속에 지각이 있다고 판단했음을 주목할 필요가 있다.

카일 마호왈드텍사스 대학교 오스틴 언어학 교수와 MIT에서 뇌 및 인지과학 분야 박사 과정에 있는 안나 A 이바노바가 온라인 미디어 '컨버세이션'에 쓴 글을 보면 사람들은 유창한 언어가 사람들 생각과 감정에서 나온다는 것에 너무 익숙해져 있다.

그래서 사람처럼 표현을 하면 사람이 말을 한다고 생각하는 인지의 함정에 빠질 가능성이 높다는 것이다. 사실 관계는 틀렸을지 몰라도 르모인이 람다에 대해 지각이 있다고 여긴 건 인지과학의 세계에선 그럴 만한 일이 될 수도 있다는 뜻이다.

새삼 람다의 역량과 향후 람다로 인한 향후 변화를 주목하게 된다. 람다는 2021년 구글이 연례 개발자 컨퍼런스 I/O 에서 공개한 자연어 기반 대화형 AI 프로젝트다.

순다 피차이 구글 CEO가 람다를 소개하는 당시 발표를 보면 람다는 초기 연구 단계다. 여전히 개발되고 있는 프로젝트다. 

람다는 맥락에 맞고 이전에 말한 것과 모순되지 않은 대화를 할 수 있도록 훈련된다. 하지만 대화를 이어가기 위해 새로운 지식을 습득하거나 저장할 수는 없다.

구글은 그동안 검색, 구글 어시스턴트, 워크스페이스 같은 음성 기술이 들어간  자사 서비스들에서 언어 처리 역량을 향상시키기 위해 람다를 내부에서 테스트해왔다. 올해 I/O 행사에선 람다 오리지널 버전에서 진화한 람다2도 선보였고  테스트 규모도 확대할 계획이다.

이런 가운데 이번 논란이 불거졌고, 이 과정에서 알만한 사람만 알고 있던 람다의 존재는 IT에 대해 잘 모르는 이들에게도 '사람처럼 말한다는 이미지'로 널리 알려졌다. 바둑 AI인 알파고 급에는 못미치겠지만 홍보 효과만 보면 구글은 이번 논란으로 얻은 것도 많아 보인다.

르모인 같은 엔지니어도 지각이 있다고 판단할 만큼 람다가 제공하는 대화 AI 기량은 뛰어나 보이지만 이미 사람의 경지에 이르렀다고 생각하는 것 또한 지금은 오버액션일 것 같다. 순다 피차이 구글 CEO 말대로 람다는 아직도 개발 단계임을 고려할 필요가 있다. 안드로이드 폴리스 최근 보도를 보면 람다 초기 버전은 상황을 잘못 해석해 엉뚱한 대답을 내놓는 경우들도 꽤 있었다고 한다.

람다가 사람처럼 애기하니 사람처럼 지각이 있다는 생각이 들었다고 해도 동문서답을 하는 상황을 한번 겪고 나면 자의식이 있다는 판단이 유지될 수 있을지는 미지수다. 동문서답 이후 람다가 다시 사람처럼 말한다고 해서 '사라진 그 느낌'이 다시 돌아올 수 있을지도 마찬가지다.



출처 : 디지털투데이
http://www.digitaltoday.co.kr/news/articleView.html?idxno=451333