全新正版现货,以书名为准,放心购买,购书咨询18515909251朱老师
¥ 52.02 5.9折 ¥ 88 全新
库存43件
作者吴建明、吴一昊 编著 著
出版社化学工业出版社
ISBN9787122474315
出版时间2024-07
装帧平装
开本16开
定价88元
货号18030514
上书时间2025-12-11
ONNX(Open Neural Network Exchange)是一种开放的格式,用于表示深度学习模型。它允许模型在不同的深度学习框架之间进行转换和共享,是当今世界最广泛应用的AI标准之一。ONNX旨在提供一个通用的中间表示,使得在不同框架(如PyTorch、TensorFlow、MXNet等)中训练的模型能够轻松地在其他框架中部署和运行。
① ONNX主要优势有:
互操作性:使模型能够在不同框架之间无缝转换。
优化:提供统一的格式,便于进行模型优化和加速。
扩展性:支持新的运算符和模型类型。
② ONNX主要特点有:
跨框架支持:ONNX支持多种主流深度学习框架,包括PyTorch、TensorFlow、Keras、Caffe2等。
跨平台支持:ONNX 模型可以在不同的硬件和操作系统上运行,包括CPU、GPU 和专用加速器。
工具丰富:ONNX生态系统提供了多种工具,用于模型转换、优化和推理。
③ ONNX核心组件有:
ONNX模型:由计算图(Graph)组成,包含节点(Nodes)、输入输出(Inputs/Outputs)和初始值(Initializers)。
ONNX Runtime:一个高性能推理引擎,用于执行ONNX模型。
ONNX Converter:用于将不同框架的模型转换为ONNX格式。
④ ONNX工作流程为:
模型训练:在支持的框架中训练模型。
模型导出:将训练好的模型导出为ONNX格式。
模型优化:使用ONNX工具对模型进行优化。
模型推理:使用ONNX Runtime或其他支持ONNX的推理引擎进行模型推理。
⑤ ONNX主要应用场景有:
跨框架部署:在多个框架中训练的模型可以统一转换为ONNX 格式,便于部署。
模型优化:通过ONNX提供的工具,可以对模型进行量化和剪枝等优化操作。
硬件加速:ONNX模型可以在支持ONNX的硬件加速器上运行,提高推理速度。
ONNX通过提供一种通用的模型表示格式,极大地简化了深度学习模型的跨框架部署和优化。其丰富的生态系统和工具支持,使得ONNX 成为深度学习领域中的重要工具之一。
本书结合ONNX理论与大量示例,通俗易懂,可帮助读者迅速掌握ONNX的基本原理和操作实践,读者可快速入门,快速上手。本书适合从事人工智能相关工作与人工智能爱好者使用。
全书有以下特点:
第一,从应用入手,详细介绍ONNX安装配置以及ONNX基本原理。
第二,基于ONNX技术,手把手介绍AI应用开发步骤。
第三,详细介绍ONNX在多种场景下的创新开发案例。
本书在写作过程中得到了家人的全力支持,在此对他们表示深深感谢。
由于编者技术能力有限,书中难免存在纰漏,还望广大读者不吝指正。
编著者
ONNX(Open Neural Network Exchange,开放神经网络交换)是一种开放格式,用于存储深度神经网络模型。ONNX 由微软和Facebook 于2017 年共同推出,旨在促进不同深度学习框架之间的模型交换和互操作性。ONNX 定义了一组与环境和平台无关的标准格式,使得AI 模型可以在不同的框架和环境下交互使用。经过短短几年的发展,ONNX 已经成为表示深度学习模型的实际标准。它还支持传统非神经网络机器学习模型。ONNX 有望成为整个AI 模型交换的标准。全书包括6 章,分别为ONNX 安装与使用、ONNX 运行时与应用开发技术、ONNX 各种功能与性能分析、ONNX 数据与操作数优化、ONNX 模型性能与应用、ONNX 创新开发案例分析。本书适合从事AI 算法、软件、硬件开发的工程师阅读,也可供科研人员、高校师生、技术管理人员参考使用。
无
以下为对购买帮助不大的评价