나승주 인텔 데이터센터 및 AI 사업부 한국 영업 총괄(상무)이 신제품 소개 간담회에서 밢하고 있다. [인텔 제공] |
[헤럴드경제=이영기 기자] AI를 통한 업계 혁신이 계속되면서 기업들은 비용 효율적이면서도 빠르게 개발 및 배포할 수 있는 인프라를 필요로 하고 있다. 이러한 요구에 대응하기 위해
인텔이 새 인공지능(AI) 가속기를 공개했다. 새 AI 가속기의 와트(watt)당 최적 성능과 낮은 소유 비용을 강점으로 AI 인프라 구축을 위한 새로운 대안이 되겠다는 포부다.
인텔코리아는 26일 서울 전경련회관에서 데이터센터용 신제품 출시 기자간담회를 열고, 제온 6 P-코어와 가우디 3 신제품을 발표했다.
이날 나승주 인텔 데이터센터 및 AI 사업부 한국 영업 총괄(상무)은 “지난 6월 E코어 기반 제온 6를 출시한 데 이어, 오늘 코어당 고성능 제품을 원하는 고객을 공략할 수 있는 P코어 제품을 출시하며 제온 6 라인업이 좀 더 풍성해졌다”며 “이에 더해 AI 가속기 신제품인 가우디 3 제품을 출시함으로써, 국내 고객에게 AI 인프라 구축에 폭넓은 선택지를 제공할 수 있게 됐다”고 말했다.
이어 그는 “곧 주요 OEM에서 인텔 제품을 탑재한 서버를 국내 출시할 계획인 만큼 국내 고객들도 인텔 신제품의 강점을 빠른 시일 안에 경험할 수 있을 것으로 예상한다”고 말했다.
인텔은 이날 데이터 센터 포트폴리오에 두 가지 주요 업데이트를 포함한 최신 AI 인프라스트럭처 지원사항에 대해 발표했다.
먼저 인텔 제온 6(Intel® Xeon® 6) P-코어는 컴퓨팅 집약적인 워크로드를 탁월한 효율로 처리할 수 있도록 설계된 제품이다. 이전 세대 대비 2배 높은 성능을 제공한다. 코어 수 증가, 메모리 대역폭 2배 증가, 모든 코어에 내장 AI 가속 기능을 갖춘 것이 특징이다. 이 프로세서는 엣지에서 데이터센터 및 클라우드 환경에 이르기까지 AI의 성능 요구를 충족하도록 설계됐다.
다음으로 최근 큰 주목을 받은 인텔 가우디 3(Intel® Gaudi® 3) AI 가속기는 대규모 생성형 AI에 최적화된 제품이다. 64개의 텐서 프로세서 코어(TPC)와 8개의 행렬 곱셈 엔진(MME)을 통해 심층 신경망 연산을 가속화한다. 가우디 3은 학습 및 추론 작업을 위한 128GB의 HBM2e 메모리와, 확장 가능한 네트워킹을 위한 24개의 200Gb 이더넷 포트를 갖추고 있다.
또 파이토치(PyTorch) 프레임워크와 허깅페이스(Hugging Face)의 고급 트랜스포머 및 디퓨전 모델과의 완벽한 호환성을 제공한다. 인텔은 최근 IBM과 협력하여 IBM 클라우드에서 가우디 3 AI 가속기를 서비스 방식으로 배포한다고 발표한 바 있다. 이를 통해 인텔과 IBM은 AI를 활용하고 확장하는 데 있어 총 소유 비용을 줄이고 성능을 향상시킬 계획이다.
인텔의 AI 가속기는 사용 비용을 절감하는 데 특화됐다. 대규모 AI 배포를 위해서는 유연한 배포 옵션, 경쟁력 있는 가격 대비 성능, 접근 가능한 AI 기술 등을 고려해야 하는데, 인텔의 x86 인프라와 광범위한 개방형 생태계는 기업들이 최적의 TCO와 성능 대 전력비를 갖춘 고부가가치 AI 시스템을 구축할 수 있도록 지원하고 있다. 특히, GPU 가속 서버의 73%가 호스트 CPU로 인텔 제온을 사용하고 있다.
인텔은 델 테크놀로지스(Dell Technologies), 슈퍼마이크로(Supermicro) 등 주요 OEM 파트너들과 협력하여 고객의 특정 요구에 맞춘 AI 배포 시스템을 공동 설계하고 있다. 델 테크놀로지스는 현재 가우디 3과 제온 6을 활용한 RAG 기반 솔루션을 공동 설계 중이다.
저스틴 호타드(Justin Hotard) 인텔 데이터센터 및 AI 사업 총괄 수석부사장은 "AI에 대한 수요가 데이터센터의 대규모 변화를 이끌고 있으며, 업계는 하드웨어, 소프트웨어, 개발 도구에서 다양한 선택지를 원하고 있다"며 "제온 6 P-코어 프로세서 및 가우디 3 AI 가속기의 출시와 함께, 인텔은 고객들이 더 높은 성능, 효율성, 보안을 갖춘 워크로드를 구현할 수 있도록 개방형 생태계를 지원하고 있다"고 강조했다.