[해외DS] IBM, 딥 러닝 전용 AI 칩 최초 공개

IBM AIU, 범용 CPU보다 빨리 딥 러닝 모델 실행하고 훈련할 수 있어 IBM 근사 컴퓨팅 기술 도입, PCle 슬롯 있는 모든 컴퓨터나 서버에 연결 가능 IBM, AI로 현실 세계의 복잡함 해결하는 데 AIU가 기여할 것이라 주장

pabii research

[해외DS]는 해외 유수의 데이터 사이언스 전문지들에서 전하는 업계 전문가들의 의견을 담았습니다. 저희 데이터 사이언스 경영 연구소 (MDSA R&D)에서 영어 원문 공개 조건으로 콘텐츠 제휴가 진행 중입니다.

사진=AI Business

IBM이 범용 CPU보다 빠른 속도로 딥 러닝 모델을 실행하고 훈련할 수 있는 새로운 AI 칩 ‘IBM Research Artificial Intelligence Unit(AIU)’의 프로토타입을 공개했습니다.

IBM AIU는 딥 러닝 전용으로 특별 제작된 최초의, 완전한 시스템 온 칩(system-on-chip)입니다. ASIC 설계 반도체에 속하며 음성 언어 혹은 화면의 단어 및 이미지 처리를 포함한 모든 유형의 딥 러닝 작업을 실행하도록 프로그래밍할 수 있습니다.

IBM 블로그 게시물에 따르면 기존 컴퓨팅의 주력 제품은 CPU 혹은 중앙 처리 장치로 알려진 표준 칩으로, 빅 데이터 셋의 통계적 패턴에 기반해 예측을 수행하는 머신 러닝의 하위 분야 ‘딥 러닝’이 혁명을 일으키기 전에 설계됐습니다.

CPU는 유연하고 정밀도가 높아 범용 소프트웨어 어플리케이션에 아주 적합합니다. 하지만 이는 대규모 병렬 AI 작업이 필요한 딥 러닝 모델의 훈련 및 실행에는 오히려 불리한 요소가 됩니다

IBM AIU 프로토타입은 32개의 처리 코어와 230억개의 트랜지스터를 갖고 있는데, 이는 AI 기반 트랜잭션을 처리하기 위해 설계된 IBM의 z16 칩과 거의 비슷한 특징입니다.

IBM AIU는 그래픽 카드처럼 간단하게 설계돼 PCle 슬롯이 있는 모든 컴퓨터나 서버에 연결할 수 있습니다. 또한 IBM의 근사 컴퓨팅 기술을 도입해 AI 모델을 훈련하고 실행하는 데 필요한 크런칭(crunching)의 양을 줄입니다. 정확성을 유지하면서도 말입니다. AIU는 더 작은 비트 형식을 사용하는데, 그 덕분에 상당히 적은 메모리만을 가지고도 필요한 속도로 AI 모델을 실행할 수 있습니다.

또한 IBM AIU는 하나의 컴퓨팅 엔진에서 다음 컴퓨팅 엔진으로 데이터를 직접 전송하도록 설계됐습니다. IBM에 따르면 이를 통해 엄청난 에너지 절약을 실현할 수 있습니다.

IBM은 “사진에서 고양이와 개를 분류하는 AI를 배치하는 건 재미있는 코드 공부일지는 몰라도 오늘날 우리가 직면한 시급한 문제에는 도움이 안 될 것”이라고 주장했습니다.

또한 “AI가 복잡한 현실세계의 문제를 해결하기 위해서는 엔터프라이즈급 산업 규모의 하드웨어가 필요하다”며 “우리가 개발한 AIU로 여기에 한 걸음 더 가까이 다가갈 수 있다”고 강조했습니다.

한편 IBM은 지난 2019년 AI 하드웨어 센터의 문을 열었습니다. IBM은 2029년까지 AI 모델을 1000배 더 빠르게 훈련하고 실행하겠다는 목표를 가지고 있습니다.

IBM은 조만간 AIU 칩의 출시일을 발표할 예정입니다.


IBM has unveiled a new AI chip that it said can run and train deep learning models faster than a general-purpose CPU.

The prototype chip, IBM Research Artificial Intelligence Unit or AIU, is its first complete system-on-chip specially built for deep learning.

It is an ASIC-designed semiconductor that can be programmed to run any type of deep learning task, including processing spoken language or words and images on a screen.

“The workhorse of traditional computing — standard chips known as CPUs, or central processing units — were designed before the revolution in deep learning, a form of machine learning that makes predictions based on statistical patterns in big data sets,” an IBM blog post reads.

“The flexibility and high precision of CPUs are well suited for general-purpose software applications. But those winning qualities put them at a disadvantage when it comes to training and running deep learning models which require massively parallel AI operations.”

The prototype AIU features 32 processing cores and 23 billion transistors – around the same as its z16 chip for AI-powered transaction processing.

The IBM AIU is also designed to be as simple as a graphics card, capable of being plugged into any computer or server with a PCIe slot.

The chip uses IBM’s approximate computing technique to cut the amount of crunching needed to train and run an AI model, without sacrificing accuracy. AIU uses smaller bit formats to run an AI model at a rate requiring considerably less memory.

The IBM AIU has also been designed to send data directly from one compute engine to the next, which the company says can create “enormous energy savings.”

“Deploying AI to classify cats and dogs in photos is a fun academic exercise. But it won’t solve the pressing problems we face today,” IBM claims.

“For AI to tackle the complexities of the real world — things like predicting the next Hurricane Ian, or whether we’re heading into a recession — we need enterprise-quality, industrial-scale hardware. Our AIU takes us one step closer.”

IBM launched its AI Hardware Center in 2019. The company’s goal is to train and run AI models one thousand times faster by 2029.

The company hopes to share the release date for the AIU chip soon.

Similar Posts