구글은 개발자 컨퍼런스 "Google I/O"에서 딥 러닝을 위한 TPU 칩의 제2세대 인 "Cloud TPU"를 발표했다.
딥 러닝에 있어서는 "추론"과 "교육"이라는 2개의 처리가 실행된다. 제1세대 TPU는 "추론"의 처리만 가능했지만, 2세대는 더 복잡한 계산이 필요한 신경망의 훈련이 가능하게 되었다.
딥 러닝은 몇 년 전부터 화상 인식이나 음성 인식 등의 분야에서 활발하게 받아 들여지게되었다. 이 분야에서 선행 한 것이 엔비디아(NVIDIA)가 제조하는 GPU(그래픽 처리 장치)이다. GPU는 원래 게임의 그래픽 화에 사용되어져 왔지만, 딥 신경망의 훈련에 이용함으로써, 교육 기간이 기존의 몇 주에서 몇 일로 단축되었다.
구글은 TPU를 이용하여 GPU보다 더 고속화를 도모하는 것이 가능하다고 생각하고 있다. Cloud TPU는 4개의 칩이 탑재되어 있으며, 초당 연산 횟수는 180테라 플롭스(180조회)가 된다. 반면 엔디비아가 발표 한 최신 데이터 센터 GPU "Tesla V100"의 연산 성능은 최대 120 테라 플롭스이다.
구글에 따르면, 복수의 TPU를 연결 "TPU Pod"이라는 하나의 시스템을 구성함으로써 연산 횟수는 최대 11.5 페타 플롭스에 달한다. 엔비디아의 "NVLink"도 여러 GPU를 상호 연결할 수 있다. 딥 러닝을 이용한 번역 응용 프로그램의 교육에는 32개의 최신 GPU를 사용해도 하루 종일이 필요하지만, 하나의 TPU Pod을 사용하면 6시간만에 완료된다고 한다.
"계산 능력이 오르면, 더 규모가 크고 정확한 모델을 구축할 수 있다. 그래서 우리는 기계 학습 모델을 실행하고 훈련도 할 수 있는 제2세대 TPU를 개발 한 것이다"라고 구글의 수석 연구원 제프 딘은 말했다.
구글은 현재 구글 클라우드 GPU를 제공하고 있지만, Cloud TPU에 대해서도 외부에 개방하고, 가격도 GPU와 동일한 수준으로 설정 할 예정이다. 이 회사는 또한 외부의 AI 연구자들에게 1000 Cloud TPU를 무료로 제공하는 프로그램 "TensorFlow Research Cloud"를 발표했다.