Triton1 Triton Inference Server와 비동기 gRPC로 통신하기 1. Triton Inference Server NVIDIA Triton Inference Server — NVIDIA Triton Inference Serverdocs.nvidia.comTriton Inference Server is an open source inference serving software that streamlines AI inferencing.Triton Inference Server는 NVIDIA에서 제공하는 오픈소스 AI 모델 추론 서버이다. 학습된 모델을 서빙하기 위해서는 웹 개발 지식이 필요하다.Triton은 모델 연구자에게 웹 개발에 대한 부담을 덜어주기 위한 서비스라고 생각하면 된다. 학습된 모델 파일을 model repository에 저장하면 별도의 코드를 작성할 필요.. 2025. 2. 11. 이전 1 다음