最近,我与 HPE Networking 首席 AI 官 Bob Friday 参加了 Tech Field Day 的一期播客节目。这期节目的核心观点是“数据中心网络需要 AI”,对此我们完全赞同。本博文系列由两篇文章组成。在第一篇文章中,我们强调了 AI 的使用条件与使用方式必须基于具体目标和需要解决的问题。在对数据中心网络运维人员面临的挑战进行分析之后,可以明显看出,AI 确实可以通过以下方式提供帮助……
人工智能原生创新巩固了我们在数据中心领域的领导地位
AI 正以惊人的速度迅猛发展,势必将在数据中心的整个生命周期(从第 0 天的设计,到第 1 天的部署,再到第 2 天的持续运维)内发挥日益关键的作用。我们近期推出了多项针对数据中心网络的全新 AIOps 能力。
- 借助预测性维护,网络运维人员能够洞察未来可能出现的问题并提前加以修复。
- 系统运行状况。通过分析处理器和内存利用率、温度等数据,预测交换机何时可能出现故障。
- 容量。基于链路利用率、流量增长等数据,预测何时需要扩展交换矩阵。
- 光学器件。基于发送/接收吞吐量、功率、电压等参数,预测光收发器何时可能出现故障。光学器件灰色故障始终是个难题,甚至可能比完全故障更加棘手(因为更难检测出来)。
在这些示例中,许多能力在刚推出时并未以动态响应式方式运用 AI。起初,系统通常会设置一个静态阈值,这会触发告警。但正如精酿葡萄酒需要优质的葡萄,唯有拥有优质的数据,才能训练出卓越的 AI。数据的积累无法朝夕可就,这也是瞻博网络相较竞争对手的优势所在——我们凭借 Mist® 平台在 AIOps 领域已深耕 10 年之久。出色的 AI 需要花费时间积累数据,通过“学习-训练-再学习-再训练”的循环不断迭代,并进行适应性调整。而这一切都是为了优化用户体验。在数据中心领域,AIOps 仍处于萌芽阶段,但发展速度却十分惊人。
- 服务级别预期涉及整合大量网络参数,计算汇总的运行状况指标,并分析在一定时间内影响这些指标的问题。这能让客户清晰了解自己的网络是否满足应用所有者和最终用户的需求。
- 文档查询是虚拟网络助手典型的基本使用场景,大多数基础架构供应商已就此展开布局:将大语言模型(LLM)与产品文档进行整合,提高搜索效率。但当您将 LLM 与实际的企业软件应用(如网络管理和自动化工具)及其可访问的海量数据相结合,便可实现更高级的应用。网络运维人员能够以更新颖、更高效的方式与这些工具进行交互;而这一切均可通过自然语言实现。有了 Marvis™ AI 助手,就等同于拥有业内最出色的帮手。
- Application Assurance 至关重要,因为数据中心的核心功能就是托管并向最终用户交付应用。我们的解决方案将 AIOps 与基于意图的网络相结合。当流量流动出现异常迹象时,异常检测算法就会进行检测。当这种智能对“哪些应用在特定时刻通过哪些端口传输”进行确定性了解后,网络和应用性能便能紧密关联在一起。
- 数据中心中 AIOps 的最后一个类别,或许也是最重要的一个类别,那就是实验。LLM 令人惊艳,甚至可以看作是具有魔力的工具。构建 LLM 的人都有一个共识,他们并不总是能够理解 LLM 运作方式背后的直觉逻辑。
从企业业务转型的广义角度来看,每家公司都应当获取基础的 LLM,并对其进行微调。企业应将手中掌握的海量企业数据进行向量化处理,通过检索增强生成 (RAG) 技术将其输入 AI 模型中。每家软件销售公司都应尝试将软件与 LLM 及其他 AI 模型结合在一起。在网络行业,我们预计模型上下文协议 (MCP) 将成为推动智能体 AI 发展的关键技术。若您尚未为企业软件构建 MCP 服务器,现在就是最佳时机!
未来几年,大量的 AI 创新将由客户主导。当供应商将开放系统交到客户手中时,往往能获得令人惊叹甚至意想不到的结果。纵观企业历史,许多行业的转型源于革命性创新,而推动这些创新的并非供应商,而是最终用户。
愿您见证激荡人心的时代
AI 相关的海量信息及其发展速度让我们很多人应接不暇。我们希望及时了解最新信息,但不想被信息所淹没。不止如此,AI 也比以往任何时候都更加容易获得。Hugging Face 上发布了成千上万的 AI 模型,任何人都可以自由下载——而且完全免费!新手也可以轻松搭建 MCP 服务器并将其连接到多个数据源。如果遇到困难,只需向 Claude 寻求协助即可。LLM 开始给人以“能够与之互动的人类实体”之感。对于网络工程师而言,这是一个激荡人心的时代。