Triton 关键字列表
2023-01-11

Triton推理服务器11-模型类别与调度器(1)

在Triton推理服务器的使用中,模型(model)类别与调度器(scheduler)、批量处理器(batcher)类型的搭配,是整个管理机制中最重要的环节,三者之间根据实际计算资源与使用场景的要求去进行调配,这是整个Triton服务器中比较复杂的部分。

2023-01-03

Triton推理服务器10-模型并发执行

Triton服务器支持的模型并发能力,包括一个模型并发多个推理实例,以及多个模型的多个并发实例。至于能并发多少实例?就需要根据系统上的硬件配置,Triton支持纯CPU以及多GPU的计算环境。

2023-01-03

Triton推理服务器09-为服务器添加模型

在“创建模型仓”的文章里讲解过,Triton模型仓使用目录结构与相关文件来形成一个模型的基础要素。

2023-01-03

Triton推理服务器08-用户端其他特性

前面文章用Triton开源项目提供的image_client.py用户端作示范,在这个范例代码里调用大部分Triton用户端函数,并使用多种参数来配置执行的功能,本文内容就是简单剖析image_client.py的代码,为读者提供撰写Triton用户端的流程。

2023-01-03

Triton推理服务器07-image_client用户端参数

作为服务器的最重要任务,就是要接受来自不同终端所提出的各种请求,然后根据要求执行对应的计算,再将计算结果返回给终端。

2023-01-03

Triton推理服务器06-安装用户端软件

在前面的文章中,已经带着读者创建好Triton的模型仓、安装并执行Triton推理服务器软件,接下来就是要安装Triton用户端软件,对服务器提出推理请求(requests),才能触发服务器执行推理计算的任务。

2023-01-03

Triton推理服务器05-安装服务器软件

在前一篇文章已经带着读者创建一个Triton的推理模型仓,现在只要安装好服务器端与用户端软件,就能进行基本的测试与体验。

2023-01-03

Triton推理服务器04-创建模型仓

推理模型仓(inference model repository)是Triton推理服务器的最基础元件,如同数据库(database)服务器必须先创建一个数据库是类似的道理。

2022-11-01

Triton推理服务器02-功能与架构简介

前面文章介绍微软Teams会议系统、微信软件与腾讯PCG服务三个Triton推理服务器的成功案例,让大家对Triton有初步的认知。

2022-11-01

Triton推理服务器01-应用概论

NVIDIA Triton推理服务器的最大价值,便是为服务类智能应用提供一个完整的解决方案,因此首先需要解决以下的三大关键问题。