本篇文章收集值之页面https://china.xilinx.com/products/design-tools/vitis/vitis-ai.html#overview
更多详细内容内容见官网https://china.xilinx.com/html_docs/vitis_ai/1_3/kze1576039639482.html
Vitis AI简述
Vitis™AI开发环境是Xilinx的开发平台,用于在Xilinx硬件平台(包括边缘设备和Alveo™卡)上进行AI推理。它由优化的IP,工具,库,模型和示例设计组成。在设计时考虑到了高效率和易用性,充分发挥了Xilinx FPGA和ACAP上AI加速的全部潜力。
您的开发如何与Vitis AI配合使用:
- 支持主流框架和能够执行各种深度学习任务的最新模型
- 提供一套全面的预优化模型,这些模型可随时部署在Xilinx设备上。您可以找到最接近的模型并开始对您的应用程序进行重新训练!
- 提供功能强大的开源量化器,支持修剪和未经修剪的模型量化,校准和微调。
- AI Profiler提供了逐层分析以帮助解决瓶颈
- AI库提供了开放源代码的高级C ++和Python API,以实现从边缘到云的最大可移植性。
- 可以自定义高效,可扩展的IP核,从吞吐量,延迟,功耗和低精度的角度满足您对许多不同应用程序的需求。

使用 Vitis AI 探索一切可能性
AI Model Zoo
向所有用户开放一系列来自最流行框架 Pytorch、Tensorflow、Tensorflow 2 和 Caffe 的现成深度学习模型。AI Model Zoo 提供了优化且可重训练的 AI 模型,借助它们,您可在所有 Xilinx 平台上实现更快的部署、性能加速和产品化。

AI 优化器
有了世界领先的模型压缩技术,我们可以在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。

AI 量化器
通过将 32 位浮点权值和激活量转换为 INT8 这样的定点,AI 量化器可在不影响预测精度的情况下,降低计算复杂度。定点网络模型需要的内存带宽更少,因此比浮点网络模型速度更快,电源效率更高。

AI 编译器
将 AI 模型映射至高效指令集及数据流。还可执行高级优化任务,如层融合和指令排程等,并可尽量重复使用片上内存。

AI 配置器
性能分析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。

AI 库
Vitis AI 库是一组高层次库和 API,旨在通过深度学习处理器单元(DPU)进行有效的 AI 推断。它基于带有统一 API 的 Vitis AI Runtime 构建,并为 Xilinx 平台上的 AI 模型部署提供了易于使用的接口。

DPU
可以定制高效且可扩展的IP内核,以满足许多不同应用程序的需求。

