엔비디아가 본격적인 AI 에이전트 시대를 겨냥해 추론 전용 칩과 새로운 중앙처리장치(CPU)를 공개하며, 빠른 연산 능력과 지휘 능력을 동시에 강화했다.
젠슨 황 엔비디아 최고경영자(CEO)는 16일(현지시간) 미국 캘리포니아주 새너제이 소재 SAP센터에서 열린 연례 개발자 회의 ‘GTC 2026’ 기조연설에서 차세대 AI 슈퍼컴퓨터 ‘베라 루빈’에 ‘그록(Groq)3 언어처리장치(LPU)’를 통합한다고 밝혔다.이번 통합을 통해 GPU가 방대한 데이터를 처리하는 대규모 연산을 담당하고, 속도가 매우 빠른 LPU가 AI의 답변 처리 업무를 맡아 효율성을 극대화하는 구조가 완성된다. 황 CEO는 이러한 역할 분담으로 파라미터가 조 단위인 초대형 AI 모델의 추론 처리량을 35배 향상시키고, 저지연 추론 능력을 높일 수 있다고 설명했다.엔비디아는 LPU 256개를 하나로 구성한 LPX 랙을 ‘루빈’에 탑재했으며, 이에 따라 슈퍼컴퓨터 부품은 지난 1월 CES 발표 당시 6종에서 7종으로 늘어났다. 또한 기존 x86 CPU 대비 성능을 1.5배 향상시키고, 에너지 효율은 2배로 높인 새 CPU ‘베라’와 이를 256개 탑재한 CPU 랙도 공개했다.베라 CPU에는 엔비디아가 AI 실행을 위해 설계한 ‘올림퍼스’ 코어가 장착돼 x86 CPU 대비 3배의 메모리 대역폭을 제공한다. 황 CEO는 “AI 에이전트는 단순 챗봇과 달리 빠른 연산 속도뿐 아니라 모든 과정을 매끄럽게 조율하는 지휘 능력이 필요하다”고 강조했다. GPU가 데이터를 처리하면, LPU가 결과를 기반으로 에이전트에게 구체적인 지시를 하고, 필요에 따라 CPU가 권한과 조율을 담당하는 구조라는 설명이다.이날 황 CEO는 ‘루빈’의 다음 세대 GPU인 ‘파인만’과 새 CPU ‘로자’도 소개했다. 파인만 GPU는 LP40 LPU를 탑재해 AI 모델 처리 속도를 한층 끌어올릴 예정이다.출처 : 핀포인트뉴스(https://www.pinpointnews.co.kr)