谢谢您的订阅!
当新的内容发布后您将开始接收邮件。您也可以点击邮件内的链接随时取消订阅。关闭Close

利用开源机器学习基础架构加速 AI 发展

by Canonical on 13 June 2025

人工智能技术在迅速发展,对稳健强大且可扩展的基础架构具有迫切需求。为应对这些挑战,我们精心打造了一套全面的参考架构(RA),充分利用了开源工具与尖端硬件的强大功能与性能。这套架构基于 Canonical 的 MicroK8s 和 Charmed Kubeflow 构建,运行于 Dell PowerEdge R7525 服务器之上,并借助NVIDIA NIM 微服务实现加速,为部署和管理机器学习工作负载提供了一个简便高效的途径。

为数据科学家与工程师赋能

该解决方案旨在为数据科学家和机器学习工程师赋能,使其能够实现更快迭代、无缝扩展以及强有力的安全保障。对于基础架构构建者、解决方案架构师、DevOps 工程师以及首席技术官(CTO)而言,这套参考架构提供了一条畅通无阻的途径,既能推进人工智能项目,又能应对大规模部署所带来的复杂性问题。

这套架构的核心在于 Canonical 与 NVIDIA 之间的协同合作。我们通过合作确保从 Ubuntu Server 和 Ubuntu Pro 到 Charmed Kubeflow 的整个软件栈,都针对 NVIDIA 认证系统进行优化。这样的集成可以实现卓越的性能和可靠性,使企业组织能够提升其 AI 运行效率。

Dell PowerEdge R7525:高性能 AI 的硬件基础

Dell PowerEdge R7525 服务器在这套架构中起着至关重要的作用,其为处理高要求的 AI 工作负载提供了稳健可靠的硬件基础。这是一款 2U 机架式服务器,专为高性能计算、虚拟化以及数据密集型任务而设计。

R7525 配备双插槽 AMD EPYC 处理器,具备出色的可扩展性、高级的记忆功能以及灵活的存储选项。因此,它非常适合必须要处理大规模数据集和复杂模型的 AI 和机器学习环境。R7525 的设计可以确保企业组织能够在运行变革性 AI 系统的同时对传统 IT 应用程序进行虚拟化处理,为多样化的工作负载提供一个统一的平台。

利用 NVIDIA NIM 和 A100 GPU 之优势

这套架构利用 NVIDIA AI Enterprise 软件平台随附的 NVIDIA NIM 微服务,可以实现安全可靠的 AI 模型推理。再结合 NVIDIA A100 GPU 的强大功能,能够为高要求的 AI 工作负载提供所需的计算能力。通过在 Charmed Kubeflow 平台上部署基于 NVIDIA NIM 的 LLM,企业组织可实现从模型开发到生产的无缝衔接。

Canonical 的开源组件

Canonical 推出的 MicroK8s 是一款 CNCF 认证的 Kubernetes 发行版,可提供一个轻量高效的容器编排平台。Charmed Kubeflow 可以简化 AI 工作流的部署与管理,并且提供一个庞大的工具和框架生态系统。二者结合可以确保机器学习生命周期流程的顺畅高效运转。

利用开源工具部署企业级 AI 项目

Canonical 解决方案全览

架构的主要优点

这套架构具有迭代速度更快、可扩展性提升以及强有力的安全保障等众多优点。NVIDIA 与 Canonical 产品的深度集成,确保了该解决方案开箱即用的无缝运行体验,以及更快的漏洞修复速度和及时的安全更新。此外,Ubuntu 提供的硬件基础还可以提供安全稳定的运行环境。

这套参考架构不仅是一纸蓝图,更是一套实用性指南。文档中包含硬件规格、软件版本以及关于使用 NIM 部署 LLM 的分步教程。文档中还介绍了设备集群监测与管理,为用户呈现系统运行的全貌。

解锁新机遇

凭借 Canonical、Dell 和 NVIDIA 三方专业技术的强强联合,企业组织可在各自的领域中解锁新机遇。该解决方案可以提升数据分析能力,优化决策流程,并彻底改变客户体验。

即刻行动

这套参考架构可为部署 AI 工作负载奠定坚实基础。凭借 Canonical、Dell 和 NVIDIA 三方专业技术的强强联合,企业组织能够提升数据分析能力,优化决策流程,并彻底改变客户体验。综上所述,企业组织可放心采用这一解决方案,推动创新进程,加速 AI 应用进程。

准备好推动您的 AI 项目迈向新高度了吗?

立即下载 Reference architecture

订阅博客文章

订阅您感兴趣的主题

在提交此表格的同时,我确认已阅读和同意的隐私声明隐私政策。

查看更多内容

Canonical 通过 NVIDIA 企业级 AI 工厂认证

Canonical 通过 NVIDIA 企业级 AI 工厂认证设计交付 Kubernetes 平台与开源安全解决方案 参考架构加速智能代理 AI 项目上市进程 为简化企业 AI 应用路径,加速 AI 洞察向商业价值的转化,NVIDIA 近日发布 NVIDIA 企业 AI 工厂验证设计,该方案作为集成式解决方案生态,可实现与企业系统、数据源及安全基础设施的无缝连接。NVIDIA 软硬件设计模板专为现代 AI 项目定制,涵盖物理 AI 与 HPC,重点关注智能代理 AI 工作负载。  Canonical 荣膺 NVIDIA 企业级 AI 工厂验证设计生态伙伴Canonical Kubernetes 容器编排方案,支持在高性能基础设施上高效构建、部署及管理多样化且持续演进的 A […]

Ubuntu 正式支持 NVIDIA Jetson

Ubuntu 正式支持 NVIDIA Jetson:助力边缘 AI 未来发展 Canonical 宣布推出支持 NVIDIA® Jetson Orin™ 的 Ubuntu 正式发布版本,该版本专为边缘 AI 和机器人领域打造,为全球 AI 开发者带来优化的性能、开箱即用的兼容性以及实现高性能 AI 解决方案的便捷途径。 Ubuntu 发行商 Canonical 宣布正式支持 NVIDIA Jetson 平台,标志着其与 NVIDIA 的合作迎来重要里程碑,为加速边缘 AI 领域创新再添动力。此次正式发布(GA)版本为 Ubuntu 与 NVIDIA Jetson 系统级模块解决方案的强大组合赋予了企业级的稳定性与技术支持。 为各行各业 AI 创新赋能 此次通过 Canon […]

誏容器镜像在 “源头” 就得到安全维

软件供应链安全已成为开发者、DevOps 工程师与 IT 领导者的首要痛点。高曝光数据泄露与依赖链渗透已证实,开源组件若未经严格审计与持续维护,可能构成安全威胁。尽管容器化技术已在现代开发部署体系中普及,但其在可复现性与安全防护方面仍存在固有缺陷。  容器构建方案亟需满足以下核心要求:部署简易性、运行安全性、构建可复现性,并能长期维护以应对新型威胁——这正是 Canonical 推出容器构建服务的根本动因。 开源安全挑战 开源软件(OSS)在企业环境中的应用正变得愈发普及。分析表明,开源软件约占所有在用软件的 70%,它已然不再是一种补充性组件,而实为现代应用程序的基石。更值得关注的是,据报告显示,97% 的商业代码库已集成某些开源软件组件,这足以彰显其实际地位之关键,已 […]