입법처 ‘인공지능 FATE 입법 동향’ 보고서 발간 “통제 수단 마련 절실”

입법처 “인공지능 FATE 법제화 필요하다는 사회적 합의 도출” 투명성(Transparency) 위한 알고리즘 작동 방식 공개 필요성 강조 “기계적 균형 위해 자율성 해치면 효율 저해” 반대 목소리도

pabii research

국회입법조사처(이하 입법처)가 4일 「인공지능의 FATE를 위한 입법 논의 동향과 시사점」 보고서를 발간했다. FATE는 공정성(Fairness)과 책임성(Accountability), 투명성(Transparency), 윤리의식(Ethics)을 일컫는 말로, 인공지능 기술의 효용성과 영향력이 증가하는 만큼 이로 인한 부작용과 역기능을 방지하기 위한 대응과 통제 수단 마련이 필요성이 강조됨에 따른 것이다.

지난해 11월 Open AI가 개발한 챗GPT(ChatGPT)가 등장하자 세계인의 인공지능(AI)에 대한 관심이 높아졌다. 많은 사람이 AI 기술의 효용성과 영향력을 실감했지만, 한편에서는 AI 확산으로 인한 부작용과 역기능을 방지하기 위한 대응과 통제 수단 마련이 시급하다는 목소리도 나왔다. 실제로 ‘AI 기술관련 사고 및 논쟁 공공데이터베이스(AIAAIC)’에 보고된 AI 사고 및 논쟁 수는 2012년 10건에 불과했지만, 2021년 260건으로 26배나 증가했다. 이는 AI가 현실에 널리 보급되고 있다는 사실과 더불어 다양한 방면에서 오남용될 수 있다는 우려를 확인할 수 있는 대목이다.

“신뢰성 제고 위해 알고리즘 작동 방식 공개 필요” 

입법처는 가장 먼저 공정성에 주목했다. AI는 기존에 생성된 데이터를 활용하는 만큼 인간들이 가진 편향과 차별을 답습해 불평등을 재생산할 수 있다는 판단 때문이다. 불평등 재생산은 금융이나 고용, 보건 등 다양한 분야에서 활용되고 있는 AI가 특정 집단에 기회나 자원을 불공정하게 할당해 사회적 약자를 계속 취약한 위치에 처하게 할 수 있다는 문제점이 따른다. 이에 AI의 공정성은 갈수록 중요시되고 있다.

책임성 부문에는 법적 책임을 비롯해 윤리적·사회적 책임을 모두 포함했다. AI 개발 및 보급에 관련된 사업자가 데이터의 출처와 품질, 신뢰성을 철저히 점검하고 의도치 않은 위험을 발생시키는 내부 거버넌스를 구축할 필요가 있다는 설명이다.

이어 투명성과 관련해서는 결정 과정에 대한 설명이 충분치 않을 경우 AI 대한 신뢰성 저하를 비롯해 AI가 유발한 사고와 문제에 대한 해결 방안과 책임소재를 논하기 어렵다고 지적했다. AI 기계학습은 서로 복잡하게 연결된 계층 내 무수한 변수들이 상호작용하는 구조이기 때문에 특정 결과가 도출된 이유를 파악하기 쉽지 않다. 이에 입법처는 AI가 사용하는 데이터, 변수, 알고리즘 작동 방식에 대한 기본 정보가 제공될 필요가 있다고 제언했다.

마지막으로 윤리의식이다. 사람의 음성을 복제하는 AI 기술이 보이스피싱에 이용되거나 AI가 생성한 미국 국방부 청사 폭파 사진이 미국 증시에까지 타격을 주는 등 AI 기술의 파급력은 인간과 사회에 유해한 방향으로 사용될 수 있다는 우려 때문이다. 인류의 공동이익을 위하는 방향으로 AI를 활용해야 하는 만큼 이를 개발하고 보급하는 공급자가 시스템을 지속적으로 감시하는 것은 물론, 오남용이나 유해한 방향으로 활용되는 것을 방지하기 위해 노력해야 한다는 주장이다.

EU는 법제화 초읽기, 미국은 첫걸음, 대한민국은?

주요국들은 그동안 학계 내에서 윤리적 차원으로 논의하던 AI FATE를 일부 법제화하는 움직임을 보여 왔다. 대표적으로 유럽연합(EU)은 2024년 「디지털서비스법(Digital Services Act, DSA)」시행을 앞두고 있다. 지난해 마련된 DSA법은 온라인 플랫폼 서비스의 알고리즘 및 데이터 처리방식의 불법콘텐츠 유포, 국민의 기본권 침해 여부 등을 최소 1년에 한 번씩 독립적인 감사를 실시하도록 규정하고 있다. 이 외에도 「인공지능에 관한 통일규범의 제정 및 일부 연합제정법들의 개정을 위한 법안」이 가결돼 EU 의회와 집행위원회, 이사회가 3자 협상을 진행 중이다. EU는 이 법을 통해 인간의 안전, 생계, 권리 등에 명백한 위협으로 간주되는 AI는 보급을 금지하고 고위험에 해당하는 시스템에는 위험관리시스템을 운영하는 등 위험과 차별 결과를 최소화할 수 있을 것으로 기대하고 있다.

미국에서도 AI 규제 필요성에 대한 목소리가 높아지고 있다. 현재 미국에는 2019년과 2022년 상·하원에 각각 「알고리즘책임법안(Algorithm Accountability Act of 2021)」이 발의된 상태다. 해당 법안은 AI 알고리즘을 개발 및 배포하는 일정 기준 이상의 기업으로 하여금 자동화된 의사결정 시스템 활용 과정이 이용자에게 미치는 영향을 평가하도록 투명성과 책임성을 부과하는 내용을 골자로 한다.

우리나라 역시 7건의 법률안을 병합한 「인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안」이 지난 2월 과학기술정보방송통신위원회 법안심사소위원회를 통과한 상태다. 이 외에도 과학기술정보통신부의 「인공지능 윤리 기준」, 국가인권위원회의 「인공지능 개발과 활용에 관한 인권 가이드라인」이 마련되는 등 AI 시스템의 공정성과 책임성, 투명성, 윤리의식에 대한 규제 근거가 필요하다는 점에서 사회적 합의가 도출되고 있다.

“투명성 논란은 개개인의 기준이 달라 비롯된 것”

다만 일각에서는 규제의 필요성은 인정하지만, 신중한 접근이 필요하다는 주장도 제기된다. AI의 활용 가능성이 무한대에 가까운 만큼 기술 개발에 집중해야 할 시점에 있어 지나친 규제는 독이 될 수 있다는 것이다. 특히 투명성을 위한 알고리즘 작동 방식에 대한 정보 제공은 개발에 진력해야 할 업계의 효율성을 크게 저해할 수 있다는 주장이다.

실제로 지난해 5월 방송통신위원회가 「인공지능 기반 추천 서비스 이용자 보호를 위한 기본원칙(안)」을 공개하자 AI 알고리즘 활용 사업자 측에서는 즉각 반발했다. 권세화 한국인터넷기업협회 실장은 “인공지능의 알고리즘 작동 기준을 공개하라는 요구는 사업자들의 핵심 영업 기밀을 공개하라는 것”이라 지적하며 “인공지능이나 알고리즘이 투명하지 않아서가 아니라 이용자 개개인의 생각이 모두 달라 그 기준이 충돌하면서 생기는 것”이라고 강조했다. 이는 투명성 논란 자체가 알고리즘의 불투명성에서 기인한 것이 아닌데도 특정 성향이나 취향을 가진 이용자들의 목소리에 지나치게 의식하고 있다는 발언으로 풀이된다.

갈수록 격화되는 글로벌 AI 패권전쟁 속에서 우리나라의 AI 산업이 뒤처져선 안 된다는 점에는 모두가 공감한다. 다만 혁신적인 기술력은 폭넓은 자율성이 보장될 때 급속 발전할 수 있다는 사실도 잊지 말아야 한다. 기계적 균형에 집중하는 나머지 자율과 신뢰, 우수한 기술력의 선순환을 향해 진화하고 있는 생태계를 파괴하는 우를 범해서는 안 될 일이다.

Similar Posts