[해외DS] 전문가들, 윤리 AI 경영 돕기 위해 뭉쳤다

노스웨스턴대 주도로 설립된 AIEB, 윤리적 AI 쿼리 보유한 조직 돕는다 노스웨스턴대 교수진과 하버드, MIT, 슬림.ai 및 메이요 클리닉 소속 전문가 참여해 케임브리지대, AIEB보다 먼저 윤리적 AI 위한 전문 연구 센터 CHIA 만들기도

2
pabii research

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소(MDSA R&D)에서 영어 원문 공개 조건으로 콘텐츠 제휴가 진행 중입니다.

사진=AI 비즈니스

최근 ‘책임 있는’ AI를 개발 및 배포할 수 있도록 돕는 독립적인 AI 윤리 위원회가 출범한 바 있습니다.

미국 노스웨스턴 대학교의 주도로 설립된 AIEB(Institute for Experiential AI Ethics Board)가 그 주인공인데요, 위원회는 앞으로 시스템이 윤리적 문제를 제안할 수 있는지를 결정하는 소규모의 다학제 전문가 팀과 함께 윤리적 AI 쿼리를 보유한 기업을 도울 것으로 예상됩니다.

아울러 위원회의 인간의 지능을 확장하고자 기계 기술을 활용하는 ‘인간 중심 AI 솔루션’을 개발하고자 노력할 것이라고 밝혔습니다.

이 위원회의 목표는 ‘전문적이고 효율적인 방식으로 윤리 지침에 대한 수요 증가에 부응하는 것’입니다.

[embedyt] https://www.youtube.com/watch?v=prtsq3BLB9g[/embedyt]

위원회는 노스웨스턴 대학 교수진, 하버드 대학교 및 MIT 교수진, 자동화 소프트웨어를 지원하는 기업 슬림.ai(Slim.ai), 미국의 종합병원 메이요 클리닉(Mayo Clinic)의 전문가로 구성되었습니다.

AIEB의 초대 이사는 영국에 기반한 금융 기업 바클리즈 뱅크(Barclays Bank)에서 최고 데이터 책임자를 맡았던 이력이 있는 우사마 페이야드(Usama Fayyad)이고, 공동 의장직은 노스웨스턴 대학교의 리카르도 배자-예이츠(Ricardo Baeza-Yates) 교수와 칸수 칸사(Cansu Canca) 교수가 맡았습니다.

AIEB의 구성원이자 미국의 통합 관리 의료 컨소시엄 카이저 퍼머넌트(Kaiser Permanente)의 연구 규정 준수 관리자인 타미코 이토(Tamiko Eto)는 “의료 분야와 그 이상에서 AI 지원 도구를 사용하려면 그 잠재적인 결과에 대한 깊은 이해가 필요하다”며 “AI 기술을 구현할 때 항상 상황별 전문 지식을 갖춘 여러 그룹의 의견에 기반해 편향, 프라이버시, 공정성, 다양성 및 기타 다양한 요인의 맥락에서 종합적인 평가가 진행되어야 할 것”이라고 전했습니다.

한편 AIEB는 영국의 케임브리지 대학교가 윤리적으로 건전한 AI 기술을 촉진하기 위한 전문 AI 연구 센터를 공개한 이후 출범했습니다. 이 센터의 이름은 CHIA(The Centre for Human-Inspired Artificial Intelligence)로, 인간과 기계의 지능이 사회 및 글로벌 발전에 가장 크게 기여하는 기술(AI)에서 어떻게 결합할 수 있는지 조사할 계획입니다.

AI의 윤리적 사용을 구현한다는 것은 중요한 산업 주제입니다. 일례로 마이크로소프트는 최근 얼굴 인식 기술 사용자가 해당 기술을 연령 및 성별과 같은 특성을 추론하는 데 이용하는 것을 금지하기로 했죠.

하지만 안타깝게도 이렇게 행동하는 회사는 흔하지 않습니다. AI의 배치에 대한 자체적인 규제 때문입니다. 몇몇 회사들은 법적 의무가 없는 상황에서 ‘투명한 AI’를 채택하는 데 소극적이었습니다.


A new independent AI ethics board has been launched to help organizations develop and deploy AI responsibly.

The Institute for Experiential AI Ethics Board (AIEB), which is being spearheaded by Northeastern University, will help organizations with ethical AI queries with a small multidisciplinary team of experts tasked with determining whether a system may propose ethical issues.

The Institute will also work to develop human-centric AI solutions that leverage machine technology to extend human intelligence.

The independent group aims to “serve the growing demand for ethics guidance in a professional and efficient manner,” an announcement reads.

The core of AIEB’s expert group is composed of Northeastern University faculty members, though experts from Slim.ai, Mayo Clinic, Harvard University and MIT are also present.

Former Barclays Bank chief data officer Usama Fayyad serves as the Institute’s inaugural director, while Northeastern Uni’s professors Ricardo Baeza-Yates and Cansu Canca serve as co-chairs.

“The use of AI-enabled tools in healthcare and beyond requires a deep understanding of the potential consequences,” said Tamiko Eto, AIEB expert group member and research compliance manager at Kaiser Permanente.

“Any implementation must be evaluated in the context of bias, privacy, fairness, diversity and a variety of other factors, with input from multiple groups with context-specific expertise.”

The AIEB launch comes after the University of Cambridge unveiled a dedicated AI research center designed to promote ethically sound AI technologies. The Centre for Human-Inspired Artificial Intelligence (CHIA) will attempt to investigate how human and machine intelligence can be combined in technologies that best contribute to social and global progress.

Implementing the ethical use of AI is an important industry topic. In one recent example, Microsoft decided to bar users of its facial recognition tech from using it to infer attributes such as age and gender.

But such actions are uncommon, with self-regulation on AI deployments meaning some companies have been reluctant to adopt transparent AI when they are not legally obligated to do so.

Similar Posts