[해외 DS] 미·영, AI 안전 협력 강화 위한 첫 MOU 체결

21
pabii research
정보 교류 및 안전 테스트 등을 통해 AI 안전 기술 발전 도모
규제 및 가이드라인 한계 및 해결 과제, 안전 기술 발전 속도 vs 악용 기술 발전 속도,
안전 기술 불균형 해소, 위험 기술 앞지르는 연구 성과 도출 기대

AI Safety Alliance UK US 20240404
사진=Pexels

미국과 영국은 최초의 양자 간 협약을 통해 AI 시스템의 안전성을 평가하기 위한 방안을 공동 개발하기로 약속했다.

지나 라이몬도(Gina Raimondo) 미국 상무부 장관과 미셸 도넬란(Michelle Donelan) 영국 과학혁신기술부 장관은 양국 간 AI 모델 위험과 보안 조치에 관한 정보·기술 지식 교류를 촉진하기 위한 양해각서(MOU)에 서명한 것이다. 이에 양국의 AI 안전 전담 기관은 안전 테스트 조치를 마련하기 위해 협력할 예정이다.

양국 AI 안전 기관, 공동 평가 프로토콜 개발

이번 협정은 정보·보안과 관련된 문제에 대해 긴밀히 협력하는 영국 정부통신본부(GCHQ)와 미국 국가안보국(NSA) 간의 파트너십을 모델로 하고 있다. 미셸 도넬란 장관은 “다음 세대 인공지능 모델들이 출시되고 있다. 이제는 우리가 빠르게 행동해야 하는 시기”라며 새로운 유형의 인공지능은 “게임체인저가 될 수 있지만 우리는 그 기술들이 어디까지 능력을 발휘할지는 알지 못하고 있다”고 MOU의 필요성을 강조했다.

라이몬도 장관도 “이번 파트너십을 통해 국가 안보와 더 넓은 사회를 포함하여 모든 위험에 대한 양 기관의 업무가 가속화될 것”이라고 말했다. 또한 “양 기관은 협력을 통해 AI 시스템을 더 잘 이해하고, 더 강력한 평가를 수행하며, 더 엄격한 지침을 발표할 것이다”고 의지를 다졌다.

미국과 영국은 작년 AI 안전 서밋 이후 AI 안전 기관을 설립했다. 이 기관들은 AI 위험을 평가하기 위한 각각의 가이드라인과 벤치마크를 만드는 데 중점을 두고 있다. 미국 AI 안전 연구소(U.S. AISI)의 연구원들은 “AI 안전 테스트에 대한 공통 접근 방식”을 구축하기 위해 인적 교류를 진행하는 등 영국과 역량을 공유할 예정이라고 전했다.

영국, “산업 성장 우선”

아울러 공개적으로 접근할 수 있는 모델에 대해서도 공동 테스트가 진행될 것이라고 발표되었지만 구체적인 시기는 알려지지 않았다. 도넬란 장관은 이번 협약이 “우리 세대의 결정적인 기술 과제”를 해결하기 위해 양국의 관계를 심화시키는 획기적인 모델이라고 강조했다. “함께 협력해야만 기술의 위험을 정면으로 맞서고, 엄청난 잠재력을 활용할 수 있다”고 덧붙였다.

그러나 영국 정부는 AI 안정성에 대한 리더십에도 불구하고 프런티어 AI의 위험을 완화할 수 있는 법안을 통과시키지 않기로 했다. 도넬란 장관에 따르면 단기적으로는 산업 성장을 촉진하고 AI 분야에서 혁신을 이루기 위해 AI 규제를 자제할 것이라고 한다.

반면 미국은 안전하고 책임감 있는 AI 사용을 위한 가이드라인을 지난달 28일에 발표해 그 구속력을 높였다. 지난해 10월 AI의 위험을 줄이는 것을 목표로 조 바이든 미국 대통령이 서명한 행정명령에 이어 카멀라 해리스 부통령은 연방 기관을 위한 세 가지 새로운 구속력, 모든 AI 도구가 시민의 권리와 안전을 위협하지 않아야 하고, 정부는 AI 사용 방식에 대한 정보를 공개해야 하며, 각 기관은 AI 기술을 감독할 최고 AI 책임자를 지정해야 한다는 내용을 발표했다.

AI 안전 연구 과제, 악용 기술 발전 속도 따라가야

명시적인 AI 규제가 없을 뿐이지 리시 수낵 총리가 이끄는 영국 정부는 최초의 AI 안전 서밋을 개최하고 영국 AI 안전 연구소에 1억 파운드(1억 2,500만 달러)를 기부하는 등 가장 강력한 AI 모델, 즉 ‘프런티어 AI’에 대한 국제적인 대응을 모으는 데 주도적인 역할을 해왔다. 지난해 11월 영국 정부 주최로 세계 최초로 개최된 ‘AI 안전 서밋’에서 미국, 중국, 유럽연합(EU) 등 28개국은 AI 안전을 위한 협력을 약속하는 ‘블레츨리 선언'(Bletchley Declaration)에 서명한 바 있다.

최근 세계 각국 정부는 인공지능 안전성 연구와 평가를 위한 전담 기구 설치에 적극적이다. 올해 일본 정부도 인공지능 개발에 따른 위험성을 연구할 조직을 국립연구소에 신설할 계획이며, 특히 생성형 AI로 인한 허위 정보 확산과 저작권 침해를 방지하기 위한 연구에 방점이 찍혔다.

하지만 일각에서는 AI의 실존적 위험이 과장됐다고 비판하는 시각도 있다. 현재 당면한 저작권 침해와 같은 문제를 해결하는 데에 더 큰 노력을 들여야 한다는 것이다. 또한 AI 안전 기술이 고도화될수록 안전장치를 우회하는 방법도 함께 발전하기 때문에 다년간의 연구 끝에 구체적인 성과를 얻지 못하는 불상사가 생길 수도 있다. 일례로 적대적 훈련을 통해 LLM이 훈련이나 평가 중에는 기만적인 행동을 숨겨 안전성 검사를 통과하고, 인간 사용자와 상호작용하는 추론 중에는 속임수를 숨기지 않았다는 연구 결과가 나왔다. 엔트로픽 연구진은 LLM이 사람처럼 속이는 기술을 배울 수 있고, 기존의 AI 안전 기술 효과가 미미했다며 다소 충격적인 연구 사례를 공유한 것이다.

결과적으로 AI 안전성 규제와 가이드라인만으로는 그 한계가 명확하다. 따라서 이번 협정은 안전 기술의 불균형 해소와 공통 평가 지표 개발에 그쳐서는 안 되며, 위험 기술을 앞지르는 연구 성과를 위해 양국 기관에 더 많은 요구가 필요하다고 업계 관계자들은 지적했다.

Similar Posts