[IT 알아보기]/IT 소식

[IT 소식] G7, AI 윤리대책 마련 위해 한자리 모인다

이호스트ICT 2023. 10. 31. 14:12

국내 기업 중엔 삼성전자·네이버 참석

선진 7개국(G7) 관계자와 전 세계 주요 빅테크 임원들이 인공지능(AI) 윤리와 안전을 논의하기 위해 영국서 만난다. 

테크크런치 등 주요 외신은 30일(현지시간) 영국 정부가 다음 달 1일부터 2일까지 런던에서 열리는 'AI안보정상회의'에 G7 관계자와 빅테크 임원, AI 연구자를 초청했다고 보도했다. 국가와 기업이 한곳에 모여 AI 윤리와 안전을 논의하는 자리를 마련한 것은 이번이 처음이다. 

보도에 따르면, 이번 회의에 카멀라 해리스 미국 부통령을 비롯해 샘 알트먼 오픈AI 최고경영자(CEO), 사티아 나델라 마이크로소프트 CEO 등이 참석한다. 한국 기업 중에는 삼성전자와 네이버가 자리를 함께 한다.  

(사진=이미지투데이)

참석자들은 AI 기술 악용 사례와 위험성을 공유하고, AI의 윤리적 사용을 위한 대책을 논의할 계획이다. 

외신들에 따르면 영국 정부는 "AI 악용 사례가 전 세계적으로 늘었다"며 "이를 해결하기 위한 세계 공통 AI 규범이 필요하다고 느껴 이번 회의를 개최했다"고 설명했다. 

그동안 각국 기업은 AI 악용 사례를 줄이기 위해 힘썼다. 지난해 챗GPT 출현 이후 생성형 AI로 인한 허위 정보와 악용 사례가 늘었기 때문이다. 

오픈AI는 올해 'AI레드팀'을 별도로 꾸려 AI 모델 허점을 찾아내고 보완하는 일에 힘썼다. 레드팀은 소프트웨어(SW) 보안 강화 역할을 하는 팀을 말한다. 실제 사이버 공격처럼 자사 SW를 직접 해킹해 취약점을 분석하기도 한다. 도출한 연구 결과를 SW 개발자에게 전달해 보안 강화 대책을 세우는 작업을 돕는다. AI레드팀은 여기서 한발 더 나아간다. SW 취약점 찾는 것뿐 아니라 AI 제품에 대한 윤리성, 신뢰성 향상을 위한 연구까지 진행한다. AI가 유해한 결과물을 생성하지 않도록 하기 위해서다.

오픈AI는 AI레드팀에 AI 연구자를 비롯한 변호사, 교사 등 약 50명을 채용했다. 이들은 오픈AI 모델에 비윤리적이고 인간에게 해로운 정보가 존재하는지 찾아내는 역할을 맡았다.

사티아 나델라 마이크로소프트 CEO. (사진=마이크로소프트)

마이크로소프트도 마찬가지다. 워싱턴포스트에 따르면, 마이크로소프트 AI레드팀은 AI 챗봇 '빙' 개발부터 배포 전 과정에 긴밀하게 협력했다. 또 생성 AI를 탑재한 제품을 출시하기 전 AI레드팀 테스트를 반드시 거치는 정책까지 만들었다. 이 외에도 메타, 구글도 AI레드팀으로 모델 보안을 지키고 있다.

구글은 자사 모델 취약점을 찾아내는 해커에게 현상금을 지급한다. 뉴욕타임스 보도에 따르면 해커들이 구글로부터 지금까지 받은 현상금은 누적 1천200만 달러(약 162억원)다. 

국내 기업도 AI 모델 허점을 채우기 위해 노력했다. 네이버는 편향성 줄인 한국어 데이터 모음을 구축해 왔다. SKT도 공정성을 비롯한 투명성, 안전성 등 7개의 AI 대화 원칙을 모델에 훈련했다. 국내 스타트업도 마찬가지다. 업스테이지도 국내 기업과 협업함으로써 윤리적인 AI 학습 데이터를 확보하기 위해 노력하고 있다.

원문: https://zdnet.co.kr/view/?no=20231031003151