C 级高管面临着一个永恒的困境:一方面需要加快创新步伐以保持业界领先,另一方面必须确保支撑全球千万级用户的高流量基础设施稳定运行。这正是我十多年来一直在应对的挑战。在 AI 驱动应用的场景下,这种矛盾变得更加严峻。我在 Caliente.mx 的多个产品和平台上亲身经历了这样的挑战。这给我留下无法磨灭的印象,知道大规模场景下什么行得通,什么会导致灾难性的失败。
当我在《2026 年 Cloudflare 应用创新报告》中看到 87% 的企业表示其内部人员配置足以支持 AI 发展时,这立即引起了我的关注。这样的自信可能具有误导性。根据我的经验,成功的 AI 采用取决于团队协作方式、组织知识储备,以及基础设施是否能支撑快速、安全的实验。在关于 AI 能力不仅取决于员工数量的《超越应用技术栈》节目中,这是我与 Cloudflare 现场首席技术官 Trey Guinn 探讨过的一个主题。
近年来,我在众多致力于 AI 转型的企业中看到了相同的模式:技术前景诱人,人才素质不错,但落地成果不如预期。原因在于,AI 采用成功与否的真正制约因素是战略而非技术。许多企业把 AI 当作一种二元状态 —— 要么“采用 AI”,要么就落后于人。这种压力通常会引发两种应对方式之一:一是招聘不了解业务的 AI 专家,二是在缺乏明确的目标和落地战略的情况下在企业内部推出工具。这两种方法都无法长期奏效。
多数企业采纳 AI 主要有两条路径:将其嵌入产品/服务中作为核心功能,或将其用作优化内部业务流程(如 HR 和财务)的工具集。你可能会认为产品优先的方法更复杂,但我认为在内部引入 AI 带来更多风险。这时,就会出现未经培训就强制使用工具的情况,预期与现实产生偏差,团队开始抵触。这就是造成采用停滞的时候。
实现 AI 真正落地,领导者必须重新考量引入 AI 的方式,而且更为关键的是,要明确谁真正能够胜任这种转变的领导。
当您像我在 Caliente 所做的那样从零开始组建团队时,就会切身体会到机构知识的价值。这种知识没有形成文字——而是存在于人们做出的权衡,他们设计的系统,以及在长期实践中培养出来的直觉里。
在整合 AI 时,这些背景知识是至关重要的。外部员工可能会带来专业知识,但如果不熟悉产品历史或架构,进展就会变得很慢。
提升现有团队的技能往往是更快的路径。他们了解应用的演变历程,用户所依赖的功能,以及系统技术栈可以灵活调整的地方。当您的架构支持模块化、低风险的实验时,这些背景知识就成为了竞争优势,技能提升也就成为了显而易见的选择。
每当引入新工具时,尤其是像 AI 这样炒作热度很高的技术,人们自然会担忧:"这会不会替代我?"当 AI 被定位为独立项目或交由不参与日常工作的外部人员负责时,这种恐惧就会进一步放大。应对这种担忧的最佳方式是始终围绕实际问题进行沟通。在 Caliente,我们从痛点开始——某个拖累我们速度或增加摩擦的问题——然后我们才会问:AI 能否帮助我们解决这个问题?
如果答案是肯定的,那么问题就转变为如何实现增强。我们不会说 “自动 QA” 。我们称之为“AI 辅助测试”。我们并不把新的举措看作是 “构建 AI 应用” 。我们谈论的是扩展现有的应用,使它们更快、更智能、更有用,同时不破坏有效运行的功能。我们增强代码审查流程,为工程师提供第二双眼睛,使其能够专注于更高价值的工作。
如果您希望自由地在现有团队的支持下进行构建,那么您的基础设施必须支持这种选择。每场 AI 对话进行到某个阶段,人们会忘记一个基本事实:驱动 AI 运行的不是抱负,而是基础设施。
如果您仍然在使用僵化的本地部署系统,即使是最优秀的创意,也会陷入延迟、兼容性冲突或采购审批的泥沼。我已经亲眼目睹了这种情况 — 试图改造传统堆栈以运行 GPU 密集型工作负载不仅痛苦,而且成本高昂。结果是,还没有开始实验,您就已经忙于处理硬件修复、驱动程序更新和操作系统补丁了。
但常常被忽视的是,应用现代化是使用 AI 的一个先决条件。您的基础设施越灵活,尝试新技术的成本就越低。您的环境启动速度越快,您就能越快了解哪些方法有效、哪些无效。尤其是无服务器架构,它让您能够在无需前期投入 的情况下测试多种配置;只需运行实验,获取数据,然后持续推进。
这种敏捷性也会在以后得到回报。该领域的硬件与软件都在快速更新迭代。如果您在本地维护所有系统,就会陷入持续不断的升级循环。通过使用无服务器或云原生平台,我们可以紧跟这种技术演进,而无需为了保持最新状态而浪费时间或预算。
我们的成功经验在于建立一个结构化的沙箱来进行 AI 项目试点。这意味着明确区分实验工作和生产发布,为假设测试设定短周期的时间表,以及在规模化之前预先定义成功的标准。
我坚持的几个原则:
隔离实验工作,防止影响核心产品
为测试周期设定时限,防止拖延
让 AI 技术负责人与产品负责人配对协作,确保每一个想法对应实际的应用价值
AI 并非孤立的,必须存在于您的现有系统中。如果能正确进行,AI 实验会加速而非减慢应用创新。您将获得更智能的功能、更强大的自动化以及更快速响应的产品,而不会对系统稳定性造成任何影响。
我发现,应用开发中,AI 从试点阶段进入生产前,必须满足三个不可妥协的条件:
可扩展计算。试点项目可以在不那么强大的机器上运行。生产工作负载则不能。可扩展的基础设施是关键,尤其是 GPU 工作负载。
强大的监控能力。一旦启用 AI,就需要全面的可见性和全面监督。这涉及追踪漂移、检测异常和捕捉意外结果,防止影响扩大。
做好这几点,实验才能持续。AI 是一种能力,而不是一种产品。根据我的经历,这段历程的成功关键在于三点:结构化实验,清晰的教育传达,以及重视透明度而非炒作的文化。
但仅靠基础设施并不能推动进步。您的团队也需要做好准备。
真正为 AI 准备就绪的三个标志
在判断工程团队是否准备好在应用 创新中扩大其 AI 项目规模时,我关注三个方面:
开诚布公的对话:如果团队乐意分享成功和失败,并坦诚讨论什么有效、什么无效,那就是一个好的信号。
基本了理解:他们不需要成为专家,但至少应了解 LLM 的工作原理、参数和令牌等术语,以及为什么会发生 AI 幻觉。这表明团队具备好奇心,并渴望获得更深入的理解。
边界意识:了解哪些数据可安全共享、哪些内容可重用,以及需要遵守的法律和伦理底线。
这些不只是锦上添花,而是表明您的团队已准备好构建和维持真正由 AI 驱动的应用创新。
我在许多团队中看到的陷阱之一是”解决方案优先“心态:领导层对某个 AI 工具兴奋不已,要求团队反向设计某一个应用场景来证明其价值。但从工具出发往往意味着要解决想象或与业务无关的问题。如果您解决一个真实、高影响力的问题,并以此来确定该解决方案究竟是否应该使用 AI,就会取得真正的进展。然后,您将能够专注地推进;目的明确、有的放矢地开展测试、学习和修正方向。
接下来就是快速迭代,特别是当您在生产环境中应用 AI 时。定义一个有限范围的用例、在生产环境之外进行测试、衡量影响、收集反馈并进行调整。如果行之有效,即可扩展规模。即便失败,您也获得了有用的知识——而无需浪费资源或打造没人需要的工具。
限制面向公众的 AI 工具也许可以减少短期风险,但这会抑制学习。更好的方法是加强团队已经遵循的行为标准。例如,开发人员已经在代码中剔除机密;这同样适用于 AI 审查。但仅靠政策并不能带来进步。真正的动力来自技术和文化体系,确保在不减慢交付速度的情况下支持安全实验。
这要从应用创新开始。合适的架构能为团队提供测试、解决实际问题和快速行动的空间。《2026 年 Cloudflare 应用创新报告》精准指出了我在实践中观察到的情况:当您的系统准备就绪时,最明智的 AI 投资就是您现有的团队。
随着应用现代化成为一种持续性策略——而不是一次性的举措——技术领导者需要一个帮助团队更快行动,同时不影响管控或安全性的平台。Cloudflare 的全球连通云为您的应用旅程每一个阶段提供支撑,从重新托管遗留系统,到为追求敏捷性而重新平台化,或构建全新的应用和 AI 服务。通过在统一、可编程的平台上集成应用交付、安全性、可观测性和开发工具,Cloudflare 可以帮助您的团队在不增加成本的情况下降低复杂性,更快交付,并释放创新潜力。
Cloudflare 就影响当今技术决策者的最新趋势和主题发布了系列文章,本文为其一。
欢迎阅读 2026 年 Cloudflare 应用创新报告,详细了解现代基础设施如何赋能 AI 成功。
Lior Gross
首席技术官,Caliente Interactive
阅读本文后,您将能够了解:
选择现有团队还是新招员工来开发 AI 应用
利用 AI 实验 推动 应用 创新
商业知识在 AI 应用成功中的作用