随着DeepSeek等模型的不断出现,大模型的能力上限也在不断刷新,行业几乎每三个月就迎来一波技术提升。大模型就像一头“灰犀牛”迎面而来,给企业和普通人平等地带来了挑战。如何确保不被替代、以及更好地运用大模型而不被行业抛弃变得越来越重要。
为普通人大模型开发,搭建进阶的“梯子”
对于企业来说,当前重点是打造以AI负载为中心的基础架构新范式。而对于普通人来说,可能一个最朴素的想法就是“打不过就加入”。与其去参与大模型的“内卷”,不如去做大模型应用开发,因为大模型一般要和应用结合才能在各种场景落地,所以加入大模型应用开发赛道,可能是个人提升自我的有效途径。
英特尔技术专家介绍,进行大模型应用开发,需要具备三个要素:一是硬件环境,用于验证和练习;二是软件栈,需要主流的软件栈支持;三是要有好老师,不仅要能够运行,更要深度理解,真正实现能力的进阶。

英特尔技术专家以火山引擎第四代云服务器实例为例,表示英特尔正在联合火山引擎的云服务,为开发者打造一个“梯子”,把门槛降低,帮助更多人迈出跨越的第一步。
云原生拥抱AI原生,CPU的“瑞士军刀”作用
英特尔与火山引擎已合作多年,双方联合打造的第四代通用型实例g4il,在性能上进一步实现了通用型提升,包括数据库应用、Web应用、图像渲染能力等方面,此外的重点还有云原生和AI原生的结合,通过软硬件深度融合,加速AI算力的普惠。
长期以来,CPU在AI方面的能力、特别是CPU进行AI推理方面的效果一直被业界所好奇。英特尔技术专家表示,CPU本质上可以理解为一把“瑞士军刀”,是一个通用型计算设备,能够执行多种任务。
在AI推理方面,业界目前普遍的趋势是采用异构计算,即CPU和GPU混合推理。CPU的优势在于,对于一些GPU资源有限或不太容易获取、又只需要一定的AI推理性能的客户来说,用CPU可以进行小规模模型或AI场景使用;但如果GPU资源非常充足,那么CPU仍然可以和GPU协同工作,而并非相互替代的关系。
对AI应用进行生命周期的划分,主要包括开发、验证和大规模生产部署。在开发和验证阶段,对算力性能要求相对较低,CPU可以充分发挥低成本和易获得的优势。基于g4il实例+大模型应用镜像,英特尔希望为开发者提供低成本、高效率的专属大模型应用开发环境。
由于云服务具有易获得、快速部署等优势,非常适合应用开发学习或起步阶段,且按使用量收费,计费方式灵活,是应用开发的天然入口。同时,第四代实例采用了英特尔至强6处理器的CPU,内置AI加速器AMX。目的是利用AMX,让用户在更低的配置、更经济的虚拟机上获得流畅的体验,这些都是帮助开发者降低门槛的重要抓手。
英特尔技术专家指出,除了硬件,软件栈的配置越来越复杂。特别是近两年开源方案层出不穷,从驱动开始,就要考虑驱动安装、加速库配置、框架组件配置等各种问题,大多数开发人员在初期都会遇到很多困难。
从去年开始,英特尔发起了开源社区OPEA(Open Platform for Enterprise AI),希望利用开放架构和组件式模块化的架构,为企业打造可扩展的AI应用部署基础。OPEA社区积累了大量经过预先验证的、优化的开源应用范例,可供社区用户参考。英特尔通过将范例和软件栈打包成虚拟机镜像,通过一键部署的方式,把硬件和软件环境快速搭建起来,将原本需要数天的过程缩短至3分钟。
“一键部署只是“开胃菜”,真正实现能力提升还需要学习,从核心基础开始,循序渐进。因此,除了硬件、软件,英特尔又补充了演示课程,这三点就是我们打造大模型应用开发服务的重点”,英特尔的技术专家表示。
RAG应用镜像实践拆解
火山引擎方面,AI能力出色的包括豆包、扣子、HiAgent这些产品。“英特尔所做的事情相当于是为普通开发者提供一张入场券,帮助他们降低门槛,更容易上手尝试”,英特尔技术专家表示,“开发者可以在此平台上进行诸多尝试。比如可以直接尝试大模型开发聊天工具,通过熟悉提示词的方式,从基础的RAG(检索增强生成)到高级的模块化RAG,再到更多模态的应用,不断丰富数据基础。”
以RAG实践为例,其核心流程分为两阶段:
首先是数据源的准备过程:企业需将内部知识进行文档分段、向量化并存入向量库,构建语义检索能力。此过程需优化文档切分粒度(如512/1024字符)、重叠文本设计等参数,因为这直接影响后续语义的覆盖范围。
其次是问答处理的过程:用户问题经Embedding模型转化为向量,通过语义匹配检索相关上下文,再经Reranking服务,从若干个文本中选出最佳文本。最后经过LLM服务,把最佳文本内容汇总成合适的回答回复给用户。
英特尔技术专家指出,知识库的衡量指标包括召回率和准确率,而Embedding、Chunk 配置参数、提示词、Re-rank,以及大模型的理解能力,可能都会对指标有影响。“只有深入实践,才能真正理解技术的精髓。我们希望用户做大模型开发从这个基础开始,而不是直接进入智能体开发。因为数据基础差之毫厘,最终效果可能会差之千里”,他指出。
英特尔的首个镜像采用了RAG场景,这与近几年企业的AI应用策略相符。因为企业通常会经历从0到1的阶段,通常第一件事就是要打造企业数据库,从1到N的阶段,才是需要把知识库能力和Agent方案结合,从而可以快速复制或者是丰富AI的能力。
通过对Embedding模块、向量数据库、Re-Rank,以及7B参数的DeepSeek蒸馏模型进行了全栈集成,并提供预优化的Dataprep服务、在线问答服务及界面配置等,英特尔将RAG应用浓缩到镜像中。
此外,OPEA虚机镜像的架构相较于一般的开源架构更具企业级特性,因为它天生具备组件化服务的优势,可以根据需求灵活部署或修改。

那么,在此基础上如何为开发者赋能?
首先,在火山引擎上申请时,第一步选择云实例(可以选择16vCPU,并在此基础上选择Ubuntu镜像)。英特尔已将该镜像泛化至公共镜像中,并专门设置了知识库问答的镜像,3分钟左右即可完成环境部署。
完成了环境搭建,开发者就可以进行学习和实践了。英特尔还通过循序渐进的课程体系引导开发者掌握提示词等核心技能、以及效果调优等能力,帮助他们降低大模型应用门槛。
“大模型应用开发和传统应用开发区别很大,甚至更考验文科功底储备。因为在应用开发过程中,提示词的编写量可能远超代码的编写量,因为需要让大模型能够遵循指令去做很多事情,提示词往往可能会写得更长。在这个过程当中,自然语言非常重要。内置的大模型会发挥重要作用,用户会发现大模型不是一个工具而是一个‘伙伴’,在不断沟通、交互的过程当中,应用也逐渐完善起来”,英特尔技术专家表示。
在进阶方面,开发者完成开发部署后,想进一步进行生产部署时,也可以结合火山引擎其他云服务,进行快速的集群化部署等。
写在最后
多年来,我们熟知的云计算服务有IaaS、PaaS,分别为云原生应用的构建提供基础计算资源和软件平台级服务。而迈入AI时代,面对重新定义的大模型应用架构和开发运营模式,云计算的边缘在不断扩展,MaaS(模型即服务)会成为互联网企业核心的AI技术输出能力,也是主要变现的能力。
对于火山引擎而言,PaaS层面已经衍生出扣子这样基于智能体、工作流方式的大模型应用孵化平台,IaaS 层面也会聚焦满足训练、开发验证等多样算力的需求。同样,英特尔通过至强6处理器的加持,对于轻量级大模型应用开发场景,为开发者进行部署、实践降低了准入门槛。
正如英特尔技术专家表示,这是一条从入门到全面成长的完整路线设计。目前,火山引擎智能体的发展非常完备,拥有良好的数据基础后,便可更容易地掌握当前热门的技术栈(包括MCP等),这些技术栈与智能体能够水到渠成地结合。未来,英特尔还将推出智能体开发套件,可以与火山引擎自身的智能体开发套件实现集成,实现更为强大的智能体应用开发。
来源: 与非网,作者: 张慧娟,原文链接: /article/1843628.html
1435
