去年是「大模型元年」,今年会是「AI应用落地元年」吗?

去年,大型AI模型的发展和应用引起了广泛关注,被誉为「大模型元年」。随着这些模型的成熟和优化,今年是否有可能成为AI应用在各行各业广泛落地的一年?AI技术的应用将如何推动产业变革,带来哪些新的商业模式和增长点?
收藏者
0
被浏览
110

5 个回答

其乐无穷 LV

发表于 2025-4-15 17:24:31

毫无疑问,在 AI 辅助研发领域,今年是 AI 应用落地元年。与上一年相比,人们探索大模型应用场景越来越深入,市面上出现了越来越多的准杀手级应用,诸如于“AI 工程师” Devin、需求自动编码 GitHub Copilot Workspace,以及最近在辅助编程领域特别火爆的 Cursor。同时,在国内我们也可以在各种技术大会上,看到越来越多有深度的应用案例,而不是像 2023 年的口头嗨 —— 生成式 AI 可以重塑 xx 产业。
在结合模型辅助研发软件时,通常会分为两个阶段来考虑结合 AI 的辅助:

  • 战略阶段。使用推理能力最强的模型,进行辅助架构、API、代码理解等场景的设计。
  • 战术阶段。使用性价比(速度快、质量不错)的模型,去辅助我们完成日常的开发工作。
而与上一代及国外的模型相比,最新的 GLM-4-Plus模型大大地提供在推理、数学能力与上下文能力,更适合于我们去应用在编程领域的一些复杂设计上。再配合用于辅助编程的战术落地工具 CodeGeeX,可以大大提高我们的研发效能。在这里,我们可以看以下几个场景在 GLM-4-Plus 上的表现:

  • 辅助技术调研与技术文章的分析和总结。
  • 辅助需求分解和测试用例设计
  • 辅助软件架构设计:API 设计、设计领域模型。
  • 结合上下文的代码理解等
作为最早吃到螃蟹的人之一,我还是想在开始之前提醒一下大家,我们现在应该学会提出一个好的问题?在编程场景一个好的问题包含四个基本因素:

  • 明确的指令(生成测试)
  • 相关信息上下文(函数的输入和输出)
  • 明确的输出格式(代码)
  • 边界条件或其他约束(诸如你的一些额外要求)
除此,我们还要适用不同模型的脾气。
辅助技术调研与技术文章的分析和总结

在做技术调研时,我们只是会在网上进行一些搜索,尽管已经有了一系列 AI 搜索引擎,但是对于新老技术的判断,并不是那么理解。因此,总会结合着做一些手动的搜索技术资料,让 AI 做总结,获取一些关键信息。
只需要注册和登录智谱AI的 BigModel ⼤模型开发平台:
https://xg.zhihu.com/plugin/d1a22122a893b390ecf021eb7bf9c174?BIZ=ECOMMERCE即可以体现和测试最新的模型。诸如于我们使用了 GLM-4-Plus 来实现如下的任务:
  1. 我在写一篇关于未来 AI 辅助 IDE 趋势的技术分析。请根据如下的内容,思考合适我的方向:
  2. https://www.phodal.com/blog/shire-0.5-secure-rag-and-shireql/
  3. https://www.phodal.com/blog/hybird-agents-build-ide-intelli-with-cloud-agent/
  4. https://www.phodal.com/blog/llm-for-documentation-shire-example/
  5. https://www.phodal.com/blog/ai-assistant-understanding-codebase/
复制代码
结合智谱的开放平台,我们就能快速得到一个基础的思考框架:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-1.jpg

而对于一些常用的技术框架和技术问题,那么模型是更擅长来辅助我们,诸如于:如何在 Spring 项目中使用 Swagger 来可视化 API?

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-2.jpg

考虑到模型的历史语料因此,模型在辅助我们迁移遗留系统上的能力更强。
辅助需求分解与单元测试用例设计

而回到我们日常的开发任务里,我们可以直接将模型使用起来。可以让他帮我们辅助做需求的单元测试用例设计。
  1. 针对如下需求,编写测试数据:开发一个出租车计费功能,它的计算规则是这样的:
  2. 不超过8公里时每公里收费0.8元,超过8公里则每公里加收50%长途费,停车等待时每分钟加收0.25元。
复制代码
如下是我们用 GLM-4-Plus去根据我们的问题生成结果,如下图所示:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-3.jpg

当 AI 知道自己要计算才是对的,但 AI不知道自己在做计算任务时,复杂任务依旧需要拆解。比如上面的这个案例,在直接生成代码时,数值可能会出现错误。
我们可以基于上述的任务拆分,让 GLM-4-Plus生成对应的测试代码,再直接复制到IDE 中执行:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-4.jpg

尽管如此,在效果上还是比 GPT4o 效果好一点,GLM-4-Plus直接生成的 9 个测试里只挂了 2 个,而 GPT-4o 则挂了 3 个。随后,我们可以让 GLM-4-Plus重新计算一下这个问题的答案。当 AI 知道自己是在计算,而不是回答问题时,结果就非常准确。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-5.jpg

从上图中可以看到,模型会展示详细的计算过程,并计算出正确的结果。除此,它也能回答经典的 9.11和 9.10,以及相关的版本号问题:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-6.jpg

辅助架构设计:UML 生成

GLM-4-Plus 也和其它的智谱一样,采用兼容 OpenAI 的 API 格式,可以集成到我们的工具中。如下是开源智能体语言 Shire 中的使用 GLM-4-Plus示例:
  1. {
  2. "title": "glm-4-plus",
  3. "apiKey": "xxxx,
  4. "model": "glm-4-plus",
  5. "apiBase": "https://open.bigmodel.cn/api/paas/v4/chat/completions"
  6. }
复制代码
然后,我们可以写个 prompt 来让 AI 直接结合需求信息,与生成 PlantUML 格式的时序图。如下是我们编写的 Shire prompt:
  1. ---
  2. name: "设计 UML"
  3. variables:
  4. "story": /any/ { thread(".shire/shell/dify-epic-story.curl.sh") | jsonpath("$.answer", true) }
  5. onStreamingEnd: { parseCode | saveFile("docs/flow.puml") | openFile }
  6. model: "glm-4-plus"
  7. ---
  8. 你是一个资深的开发人员,根据用户故事使用 PlantUML 绘制 PUML 时序图。
  9. 用户故事:
  10. $story
  11. 请使用 Markdown Code 格式,语言 `puml`,请根据用户故事绘制 PUML 时序图,返回设计的 PUML 代码。
复制代码
下图是结合需求在IDE中生成的时序图,GLM-4-Plus 可以直接生成准确可编译的 UML,并结合 IDE 的能力展示出来。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-7.jpg

还可以生成 API 文档,如下是结合需求信息生成的 Swagger 文档示例。可以直接在 IDE 中显示,并进行测试。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-8.jpg

需要注意的是在使用 API 时,GLM-4-Plus模型输出最大 tokens,最大输出为4095,默认值为1024。除此,开发者需要根据自己的场景,配置好对应的模型参数。
结合上下文的代码理解

在一些场景中,我们还可以根据上下文信息,让模型分析我们的需求信息,与代码库现状去判断应该在哪里修改代码。如下的示例中,我们将所有的 Controller 代码发给 GLM-4-Plus 模型,让模型根据需求找到合适的代码变更点:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-9.jpg

不过,需要注意的是我们得考虑在适合的场景才使用如此的上下文。对于编码场景来说,精炼的信息,有助于模型生成更准确的答案。而另外一个非常依赖于长上下文的场景,则是让 GLM-4-Plus 去 review 代码, 以查找代码库的历史的变更内容,诸如于:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-10.jpg

在这些场景上,GLM-4-Plus 都有非常不错的表现,能辅助我们更好地解决软件开发问题。除此,我们在先前的 Shire 语言的示例项目中做过一系列相关测试,在辅助编程场景上,GLM-4-Plus 已达到与 GPT-4o 等第一梯队模型持平的水平。
作为一个喜欢在 PPT 里放很多图的工程师,我经常使用 AI 来生成图,以避免版权问题。如下是 CogView-3-Plus 文生图模型生成的内容。非常贴合我所需要的日常场景:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-11.jpg

就效果来说,已经可以在 PPT材料和文章中使用,也非常接近于主流的文生图模型。同时,与 GLM-4-Plus 一起上线的还有 GLM-4V-Plus 模型,它可以理解视频和网页等内容,如下图所示:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-12.jpg

它可以解决领导突然发了一个截图,并 @ 茫然无措的你。
小结

从个人的使用而言,在软件开发领域,相较于国外模型,GLM-4-Plus更懂得国内用户的实际需求,如在注册功能设计中,能够自然地考虑到使用手机号、微信等多种登录方式在复杂编程任务中,GLM-4-Plus展现出了卓越的推理和数学计算能力,能够准确地进行需求分解、测试用例设计,并在辅助架构设计时生成精确的UML图和API文档。在处理代码检视、发布文档等需要长上下文的内容时,GLM-4-Plus能够准确把握代码库的现状和需求变化,辅助开发者找到合适的代码修改点,甚至在代码审查中也能发现历史变更的细节。
同时,作为一个模型应用的开发者采用兼容OpenAI API格式的GLM-4-Plus,可以轻松集成到现有工具和平台中,极大地方便了开发者的使用。我们可以在现有的 AI 应用中,直接通过它的 API 来改善现有 AI 应用的推理能力
最后,需要注意的是模型的效能很大程度上取决于输入问题的质量,学会提出明确、具体、包含必要上下文和约束条件的好问题,是充分发挥模型潜力的关键。

全年不休 LV

发表于 2025-4-15 17:36:23

AI这波浪潮从AlexNet开始,其实已经有10几年了,以ChatGPT为代表的生成式AI(Generative AI,简称GenAI)彻底引爆AI的最主要原因就是个人使用起来非常地便利。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-1.jpg


图源:https://towardsdatascience.com/ten-years-of-ai-in-review-85decdb2a540

这波AI浪潮跟之前的很不一样,之前的各种人脸识别、声音识别等等,绝大多数的人只是被动的接受,而这波GenAI涌现出来的各种产品,比如AI文本生成、AI绘画、AI视频生成等等,给了所有人变成创作者的选项。
比尔盖茨在和OpenAI的CEO山姆奥特曼的对话中就提到了他对于ChatGPT效果如此之好的感叹。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-2.jpg


去年是「大模型元年」,今年会是「AI应用落地元年」吗?-3.jpg

特别是我在高强度的体验过国内外各种GenAI之后,才真正地发现了GenAI的各种强大之处。
比如GPT4可以直接将随手画的网站草图变成功能齐全的网站。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-4.jpg

音乐AI suno可以让人非常轻松地创建出2分钟的音乐,可以驾驭各种风格,可以唱非常多种类型的语言。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-5.jpg

不过最近有个趋势,那就是AI的发展产生了两种主要的趋势:开源和闭源,比如OpenAI在GPT3以后的所有模型都是闭源的,GPT4、Sora等几乎没有透漏任何有价值的信息。与之相对应的是开源的AI,比如通义千问家族,开源了从1.5B的端侧大模型,到72B的大型LLM,不仅如此,还有视觉大模型Qwen-VL,语音大模型Qwen-Audio等等,从模型到参数到训练数据的全面开源。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-6.jpg

开源的最大好处就是让技术分享出来的同时,可以让更多的人参与到技术的开发中,现在基本上有一个共识就是OpenAI之所以强是占据了先发优势,也就是现在他们的训练方法可能领先,但是很多优势是会随着时间的推移逐渐减少的,开源正好是闭源的天生对手。
就像千问Qwen72B发布的时候,更是在hugging face上超过了Meta的Llama2,首先它的性能已经跟GPT-3.5很接近,部分结果甚至已经超过了GPT4,更重要的是它是可以随意被再开发且随意商用。
可以预见的未来,闭源会在短期内占据先发优势地位,但开源终将是主流。抛开开源闭源,AI,特别是生成式大模型的实现需要三个必要条件:模型、数据以及算力。
模型和数据决定了不同类型的AI,这一点儿我们可以从不同的开源大模型得到验证,但是算力不一样,它是没有属性的,它只有量的区别。
特别是在AI领域,算力就跟电力在电气革命的地位一样,是基础也是最宝贵的资源,甚至可以算是衡量国家综合实力的一个重要指标。在计算方面布局很早的阿里云,更是承担了中国大模型半壁江山的算力负载。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-7.jpg

算力之所以基础且宝贵,是因为AI所需要的计算资源,每3-4个月就翻一倍,因为AI模型的规模在不断的增大,你可以从下图里看到ChatGPT从最初一代到现在的GPT4,参数规模从1.17亿到估算的1万亿,将近1000倍的增幅,远超摩尔定律。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-8.jpg

特别是现在的趋势是从文本生成到视频生成,需要的算力更是呈现指数级别的增长。
这么高的算力需求,其实对于绝大多说的公司来说都是遥不可及的,当前最优的解法就是云计算,因为云计算的两个优势非常适合AI,第一是它的弹性以及可扩容,正好适合AI这种对于算力需求上限极高的产业,其次开发者可以专注于技术开发而不是分出甚至找专业的维护人员。
阿里云在云计算领域先发优势很明显,在国际上都属于领跑者的队列。Gartner这个权威的评级机构作出的报告中,阿里云已经多次处于第一象限,领跑者。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-9.jpg

其实这也不难理解,毕竟从双十一开始的时候阿里云就已经在储备应对大模型计算的经验了,到现在GenAI的爆发,阿里云也是凭着自己的硬实力才能接得住这波冲击。
除了承载超过半数的中国大模型,通义千问自己本身就是在阿里云的支持下运行的,更难能可贵的是千问一直都是免费开放使用的,前段时间更新的新功能,更是可以支持1000万字的上下文,这种级别的算力需求是很恐怖的,因为这相当于可以同时读10本《三体》全集,没点算力储备很难做得到。
有一个很明显的趋势就是在这波AI浪潮中,公司的人员规模不再是核心竞争力,风头无两的OpenAI也不过500多号员工,Midjourney的正式员工不过十几个人,这都是依托于云计算这样的AI基础服务平台,才可以让公司专心于技术开发即可。
至于算力之类的资源,基础平台可以提供稳定且专业的支持,不管业务的规模大小,起码在算力这一环节,几乎不存在很大的门槛。
这也是我觉得AI应用会爆发的主要原因,并且AI应用的发展才是AI大模型可以持续发展的动力,否则大模型会成为无水之萍,难以持续发展。AI应用领域是更充满想象力的,且对于技术没有很高的要求,例如,可以看到在阿里云提供的百炼AI大模型服务平台上,很多的公司在上面构建了下载量和使用量都非常高的应用。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-10.jpg

百炼这样的平台,不仅集成了大量的开源大模型,更是将AI应用的构建做成了傻瓜式,只需要简单的拖动就可以创建一套复杂的处理流程。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-11.jpg

构建一个应用就跟画流程图一样的简单,你确定好你的输入,也就是开始节点,以及输出,也就是输出节点,其中最核心也最难的其实就是处理部分,但是这一部分在百炼里面反而是最简单的一环,因为你只需要简单地拖动相关的节点并选择适合你的模型即可。
这种平台最大的作用就是可以让公司或者企业依托提供的接口以及现成的大模型开发新的业务线,甚至转型成AI公司也不是没可能。
最后,AI大模型会继续持续发展,但是这是一个赢家通吃且竞争异常激烈的领域;但AI应用不同,他们更多追求对于细分需求的满足以及各种已有资源的灵活应用,这一切都取决于AI基础建设方面的完善度,阿里云这样的在云计算以及AI基础建设领域深耕已久的大平台会成为AI浪潮中创新的热土。

likey LV

发表于 2025-4-15 17:48:32

无论如何,我们必须承认,大模型已经从“百模大战”走向了“实用优先”。
在过去一年,国产大模型已经完成了对【数量】的追逐。诸多科技公司也开始意识到,与其做100个大模型,不如转变赛道,去做100个AI应用。从“大而不精”的同质化“战区”跳转思路,转而对大模型进行本地化、客制化的应用,才是大模型商业化落地所必须要经历的重要阶段。
或者我们应该在百模大战的“热度”之后,“冷静”下来思考一下生成式 AI 的下一步会是什么?
一、从生成式AI和大模型的崛起说起

先看两张图:

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-1.jpg


去年是「大模型元年」,今年会是「AI应用落地元年」吗?-2.jpg


图源网络

这两张图的密度一出现,大抵可以猜到讲的就是“百模大战”这件事。其实不仅是国内有大概200多个大模型,就国外而言,早有传言说谷歌杀手锏Gemini Ultra、OpenAI的GPT-5不久就会开始“打擂台”。
回到模型本身,我们知道,千亿基座模型、有监督指令微调、人类反馈强化学习被视为GPT和其他生成式预训练Transformer模型的三个发展阶段。分别来看,第一阶段当然是“千亿基座模型”,它相当于让机器“饱读诗书”,把在这个世界图书馆里的所有知识“应学尽学”。“有监督指令微调”是第二阶段,整个过程都在教大模型如何“考试”,也就是怎么去回应人类的问题,怎样跟人类的思维方式对齐;第三阶段叫做“人类反馈强化学习”,顾名思义它将强化学习和人类反馈相结合,利用人类提供的反馈来指导大模型的行为。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-3.jpg


图源网络

也是基于上述“三段论”,国产大模型在近一年里,曾一度陷入“数字论”的怪圈。如果关注产品发布会,可能会发现,在各个科技公司发布产品时,难以避免地去比较一下谁家的训练参数量更大、谁家的文本输入输出字数更长。就好像数字大一点,产品能力就强一点。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-4.jpg


NLP模型参数量规模趋势,图源网络

但AI不是数码产品,像是手机、电脑登录终端设备后,进行一波“参数营销”,用户可能还会买账。但是对于大众而言,AI更像是“互联网+软件”的双重体验,大众对其最直观的感知就是【交互】。举一个直观的例子,大模型就好像我们手机的底层系统,对于大众而言没办法直接调用大模型的基础能力——逻辑、对话、记忆、生成,只有将这四重能力打包进入AI原生应用,大众才能真正体验到大模型到底多香。
包括最近业内也有大佬开始预测:2024年,国内即将出现首个杀手级应用。
虽然无法肯定这个杀手级应用到底多顶,但可以肯定的是,一味地卷大模型卷参数,注定会错过这一轮AI商业化洪流。
二、参与AI原生应用的两种“姿势”

我们知道,就大模型本身而言,其实并不能直接产生价值,第四次技术革命的到来也不会仅仅是大模型本身,而是大模型所激发出的生产力的变革。
作为“百模大战”下半场的破局点,面对AI 原生应用,国内头部大厂的普遍做法是从零开始,自己开发大模型。在此基础上对原有产品进行重构,或者直白一点来说,就是重新做了一遍。这种模式所面临的一个最重要的问题就是需要烧钱。但纵观整个行业,能烧得起的也就是那几家。另一种模式则是直接使用云服务厂商的能力(如阿里云),部署大模型进而重构或者是创建AI原生应用。
概括而言,参与AI原生应用大抵不外乎两种“姿势”: 一种是基于已有的大模型,开发AI原生应用,但前提是得解决大模型到应用的路径问题。还有一种就是“借鸡生蛋”,直接借用AI一站式服务开发平台,直接调用其的云计算能力,直接在平台上训练模型、开发应用,实现全链路开发,同时降低大模型的训练和部署成本。
所以今天想聊聊不烧钱的“玩法”——上云。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-5.jpg

“云计算与大模型”之间是“电和电动机”的关系——未来云计算的算力都会被这些智能时代的电动机,即模型消耗掉。这是因为,将来所有的AI计算,都会以云的方式来提供。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-6.jpg

与通用计算时代截然不同,当前的单一计算架构已难以满足AI技术不断推进的需求。由多元算力(如CPU、GPU、DPU等)融合而成的异构计算架构将成为主流。而AI大模型的训练和推理所带来的成本极高。与传统的“摩尔定律”相比,AI大模型对算力的需求越来越高。根据毕马威的数据,目前AI大模型的算力需求近乎每3-4个月就翻一番,远超摩尔定律所预测的每18-24个月翻倍的规律。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-7.jpg

动辄上亿乃至上百亿的资金投入,显然不是随便一家公司都能玩得转的。因此,降低算力和数据成本,对于AI大模型的“玩家们”而言,已然成为决胜的关键。
相对于传统的IT基础设施需要大量的资本投资,包括硬件、软件、数据中心空间等。云原生架构利用容器、微服务、DevOps、无服务器计算(Serverless)以及云原生中间件等技术,实现业务和组件的弹性扩展。不仅大大提高了应用部署所需资源的复用率,还可以采取按需付费的模式,企业只需根据实际使用量付费,避免了高额的固定成本,同时还减少了后期运营维护的成本。
大模型完成训练后,还需进行精调和部署,这要求有完善的工具链,通常只有大型企业能提供。许多大模型企业期望通过云平台对外服务,以扩大客户群。
而百炼平台不仅能帮助模型企业走向商业化,还能让企业将模型功能整合到各种AI原生应用中去。为了保证大模型训练的稳定互联和高效并行计算,阿里云全新升级了人工智能平台PAI,提供模型选型、微调训练、安全套件、模型部署等服务和全链路的应用开发工具,为用户简化了底层算力部署、模型预训练、工具开发等复杂工作。阿里云通义大模型系列就是基于人工智能平台PAI训练而成。目前除了通义大模型,包括智谱AI和清华大学的ChatGLM、百川智能的开源大模型以及IDEA研究院的姜子牙等都已经上线,可以说中国一半的大模型都跑在阿里云上。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-8.jpg

最后,通过云端服务,企业可以更容易地试验新的应用程序、服务和业务模型,而无需担心巨大的前期投资。这种灵活性和敏捷性使企业能够更快地响应市场变化,推出新产品和服务。
总的来说,传统的企业软件开发需要经历漫长的周期,依赖大量底层基础设施、技术资源以及物理和网络资源的支持。而云计算环境提供了即时获取这些资源的能力,达到了开箱即用的便利性。因此,未来云计算一定是企业和开发者的首选。
三、传统企业如何参与AI原生应用的“新战场”

根据Gartner的报告显示,预计在2026年,超过80%的企业将使用生成式AI应用程序接口(API)或部署支持生成式AI的应用程序。但是,当下却仅仅有不到5%的企业将生成式AI运用在生产环境中。可以肯定的是,不变革,就死亡。全中国所有的产业都可以用AI原生应用进行提效,所谓的新质生产力一定是AI化后的生产力。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-9.jpg


基础模型将迈入技术成熟度曲线上的“顶峰阶段”,图源Gartner

但实际上,对于鲜有AI基因的传统企业而言,“数字化转型”尚且刚刚摸索清楚,“AI化”又迅速压了过来,几乎是丈二和尚摸不头脑。首先是大模型训练的成本难以承受,其次无论是营销、OA、财务、HR、研发,还是供应链,在不同的场景下,AI原生应用同样有许多种的限制。
所以,对资源有限的中小企业,以及鲜有“AI原生基因”的企业,如何有效利用云技术、智能化工具及数据化策略来加入“AI原生应用”的新战场十分重要。
作为提供基础设施的阿里云,其一站式大模型应用开发平台阿里云百炼,可以让开发者在5分钟内开发一款大模型应用,几小时可以做出一个企业专属模型。阿里云百炼集成了国内主流优质大模型,既有阿里云自研的通义系列大模型,也有第三方模型。另外,也支持用户上传自行训练的模型。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-10.jpg

百炼的全链路模型服务覆盖数据管理、模型训练、评估和部署 等关键环节。数据管理整合了离线和在线数据集,确保训练数据的质量和完备性。模型训练允许用户选择通义系列或第三方开源大模型,并通过透明化工具监控模型状态。模型评估提供多种资源,包括单模型和多模型对比,以对标行业标准。模型部署则通过一键功能简化云端应用流程。
为保持开放性,百炼整合并优化了开源框架如LlamaIndex,提供封装的原子级服务和SDK。插件中心预设了多样插件,并支持企业和开发者自定义插件,以提升大模型的调用效率。
值得一提的是,百炼平台还提供了一个模型选型参考榜单,通过综合能力、推理能力、语言能力等多个维度,帮助用户一目了然地了解哪款模型更具优势。这一功能无疑为企业在模型选择上提供了极大的便利。
通过一键选用、二次训练或简单的“拖拉拽”操作,开发者和企业能够高效地进行应用开发,同时保障了应用的安全性。目前,已有多家先锋企业在阿里云百炼平台上成功开发出专属模型和应用。
得道多助失道寡助。作为传统企业,去顺应技术发展趋势调整企业发展路线,就会有许多的一站式平台为你提供服务。
最后回到问题上来,2024年如果还不能作为AI应用落地元年,那等到2025就太晚了。

baiyuting LV

发表于 2025-4-15 18:00:12

个人认为,大模型时代,什么「元年」这种概念不太适合了,因为大模型发展太快,以至于用月为单位衡量其发展都显得滞后了,甚至一天之内几个新技术发布都是经常有的事。技术的突破和创新每天都在发生,大模型的发展速度之快,使得我们需要以更短的时间尺度来衡量其进步。
举个例子,Meta的Llama发布于去年2月,而Llama2的发布只隔了五个月;国内的话,阿里云开源Qwen-7B和Qwen-7B-Chat是去年8月,然后9月开源Qwen-14B,12月开源Qwen-72B,Qwen-1.8B, Qwen-Audio,技术发布得非常密集。而且,在这之前,通义大模型已经在天猫精灵上应用上了,并不用等大模型发展一段时间后再落地,大模型出来就马上落地,并持续用更强性能的大模型对其进行迭代。
所以,我的看法是,忘记「元年」的概念,大模型的发展和应用的落地是同时进行的,螺旋交错的。而且在过去两年,AI的发展已经超乎想象,让大家见识到Scaling Law威力,也让更多人看到AI的价值。据我观察,去年就已经有很多企业着手于AI应用落地,即使是人们眼中的「传统企业」,也在这波AI浪潮中找到了AI和业务结合的点。我现在也在做RAG和Agent相关的开发,就顺便来给大家讲讲这两个方向都是做啥的。
首先是RAG。
RAG是Retrieval-Augmented Generation的缩写, 是一种结合了检索和生成的AI模型,它通过检索大量的数据来辅助生成更加准确和丰富的内容。会有读者觉得,是不是把搜索引擎接到大模型?其实不是那样的。
举个例子,你们公司有很多内部资料,都是不公开的,这些资料里的知识大模型本身是不懂的;当你有问题时,可以查找这些资料寻求答案,但会比较费时费力。于是我们可以利用大模型的能力,去检索这些资料并生成我们想要的回答。
RAG的价值在于它能够结合已有的知识和信息,生成更加准确和丰富的回答,可以帮助企业更好的做培训和知识管理。
那么怎么做RAG呢?其实RAG在2020年就被Meta提出来了,是NLP技巧的一种。具体原理可以看这篇论文。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-1.jpg

不过现在很多云服务把做RAG的过程变得简单很多,例如在阿里云百炼可以轻松创建RAG,不用写代码就能创建企业的RAG应用,具体操作方法可以参考这个文档。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-2.jpg

然后讲讲Agent。
Agent在人工智能领域,指的是一种能够执行特定任务的智能体。它通常被设计用来模拟人类在特定环境下的行为,以完成一系列复杂的任务。Agent的核心功能在于其自主性和交互能力,它可以在没有人类直接干预的情况下,根据预设的规则或通过学习来做出决策和响应。有的平台也叫其为智能体。
Agent能够执行的任务范围非常广泛,包括但不限于自动化客服、数据分析、预测建模、智能推荐、游戏AI角色控制等。
了解完RAG和Agent,也许读者会有疑问,到底应该怎么落地呢?
首先我认为,不要拿着锤子看啥都是钉子。大模型很好用,但并不是啥场景都需要用大模型。你需要考虑一下目前企业在哪些场景用大模型能真正提供价值,减少繁琐流程,节约员工精力。举几个例子。

  • 例如电商公司需要智能客服。前几年的智能客服可谓真的不好用,但大模型出来后,智能客服已经能独自处理很多客户的问题了。
  • 又例如如果企业做的营销活动多,想减少文案或者分析师压力,那么可以利用大模型的能力智能营销,利用大模型进行商品推荐、营销文案生成、转化分析等。
  • 另一个很多大企业的痛点就是知识库管理,例如我们公司经过很多年发展,有海量的wiki page,很多文档,很多pdf,要找相关知识的话需要查阅很多资料。而利用大模型,可以用于构建和管理企业的知识库,通过自然语言处理技术,实现知识的自动分类、整理和更新。
  • 最后再举一个例子。现在微软Office系列,金山WPS,腾讯文档等等,都具有AI功能,能够帮助用户写文档。文档助手是一个很好的方向,大家可以参考。
落地过程中很多人会问到一个问题:是用云服务还是自己建立计算集群?
如果你是做大模型本身的,想做个自建服务器集群还是很常见的,毕竟需要海量的算力,但成本也是巨大的,例如LLaMA-1用了2048个A100,光硬件就几千万美金的成本。
不过多数企业做大模型落地应用只是利用模型本身的能力而不是重做一个模型,并不需要这么多显卡,所以采用云原生的策略是更好的。
如果你的企业过去已经全面上云,直接在云上使用大模型更高效,可以实现数据和模型的无缝对接。即使是对于上云程度低的企业,重新搭建大模型运行需要的架构也是非常费时的,不如直接用云服务。目前在国内,超过一半的大模型跑在阿里云上,可见上云是多数企业落地AI的选择。而且现在云厂商提供的大模型服务真的很方便且好用,例如阿里云百炼就是这么一个一站式大模型服务平台。
阿里云百炼直接就提供了阿里通义大模型的接口,非常方便就能利用大模型能力。当然也有其他第三方模型让用户选择。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-3.jpg

同时,阿里云百炼也提供了很多插件,在创建AI应用时能轻松调用,快速实现强大的智能体。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-4.jpg

当然,作为企业,过度信任大模型也不行,我们得对大模型进行测评从而知道它到底强不强。阿里云百炼也提供了在线的测评工具,方便用户量化模型性能。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-5.jpg

而百炼的使用也是非常简单,用钉钉或者支付宝扫码二维码登录,就能进入控制台,在控制台左边,有模型服务,模型工具,知识库管理等等功能,非常丰富,这里就不一一介绍了,官方文档有非常详细的介绍,可以参考一下:https://help.aliyun.com/product/2400256.html
总体而言,大模型技术对行业的影响是深远的。它为各行各业提供了新的解决方案,在多方面提升了企业的效率。在AI落地时,上云的价值得到了广泛认可,它为企业提供了更加灵活、高效的AI应用开发方式。根据我和同行朋友的经验,直接在云上进行AI应用开发确实省钱省心省力。
展望未来,AI行业和大模型会如何发展呢?业内对此看法也是不一的,例如 OpenAI 首席运营官 Brad Lightcap在GTC 2024 会议上说到,推理和解决多步骤问题的能力是大模型未来发展的两个主要趋势。而Sam Altman在和比尔盖茨的对话中,则表示了对AGI到来的担忧。
但就AI落地而言,我是持乐观态度的。我认为现在AI的渗透率还不够,相信未来几年,AI应用将在更多领域展现其独特的价值,帮助各行各业实现智能化转型。

yoogoo LV

发表于 2025-4-15 18:12:30

前两天我在学校的时候听了一个讲座,主要讲的就是生成式AI在异常检测里面的应用,比如质量检测、欺诈检测等等。举个简单的例子,曾经我们需要去学习如何分辨优品和良品,但我们现在还可以做到更进一步,也就是直接去使用“生成式”AI帮我们呈现和甄别“良品”可能长什么样子,对产业工人做到教学的效果。
国外生成式AI的典型代表就是OpenAI的ChatGPT,也是带火了这一切的源头。它可以根据用户的输入生成各种拥有创意性的内容,比如写诗、创作故事、问答等等。在大语言模型这一块,国内也有很多不错的案例,比如我在两年前的回答「主打中文的 AI 模型开源社区魔搭 ModelScope 上线,用过的来说说?会成为国内的主流社区吗?」就介绍过AI模型社区魔搭ModelScope,里面有各种语言和图像上的大模型。
我自己也是生成式AI的尝鲜者,ChatGPT出现就迅速订阅。后来风靡一时的妙鸭相机(根据你提供的照片生成对应的模版照片)出来时,我也是第一时间就用起来了,现在我的学校主页头像都还是妙鸭生成的。熟悉妙鸭模版的小伙伴可能一眼就能看出我的模版!

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-1.jpg

而构建、部署大模型,最大的壁垒之一就在于算力。大部分中小企业虽然很想拥抱新的技术,但动辄就得成百上千的GPU开销是一般企业所无法负担的。即使是很多大型企业,如果本身不是科技领域,也不会在GPU和人工智能技术上有特别多的积累。因此,一个比较常见的思路就是把大模型部署在云上。
2023年云栖大会上,阿里的董事长蔡崇信就说了“目前全国80%的科技企业和超过一半的AI大模型公司跑在阿里云上”。我个人觉得这个现象其实非常合理,因为以下几个原因:
1、提高资源利用效率:云计算平台如阿里云提供弹性资源配置,这意味着企业可以根据需要动态调整计算资源,无需为了高峰时段的需求而在非高峰时段持续保持大量闲置资源。这种按需使用的模式极大地提高了资源的使用效率,企业可以仅在需要时扩展资源,而在不需要时缩减,这样做不仅节省成本,还提高了整体运营效率。继续拿妙鸭相机举例,并不是每个时段和阶段都会面临相同的用户需求,比如在爆火阶段可能生成式需求会非常大,而在竞品变多的时候进入稳定器,对于资源的需求就会降低。因此可扩展性,对于妙鸭这种初创型项目就非常友好。
2、降低成本和准入门槛:相似的,对于大多数企业,尤其是中小企业来说,前期投资巨额的资金购买GPU和其他硬件设备是不现实的。云服务提供了一种成本效益高的解决方案,企业可以通过租用云服务商的计算资源来避免昂贵的初始投资和维护成本。此外,云服务通常采用按使用付费的模式,这进一步降低了门槛。使得很多小企业都可以尝尝鲜,感受一下大模型的效果再决定之后的发展策略。
3、确保数据安全和业务连续性:云服务提供商如阿里云都具备先进的安全防护措施,可以保护存储在云中的数据不受攻击。同时,这些平台通常提供高可用性和灾难恢复解决方案,以保证业务连续性。在发生硬件故障或其他突发事件时,云服务可以迅速迁移资源,保证服务不中断。和上面的内容结合,也让小企业把时间主要花在开发产品而不是和黑客斗智斗勇上。

而生成式AI也带来了很多的应用场景,这些是原来所没有的需求。就像是电力发展之后,各种基于电力的行业应运而生,极大的促进了经济和我们的生活发展。
金融领域为例,生成式AI可以带来革命性的变化。例如,可以通过AI模型来生成财务报告、市场分析预测或风险评估报告。这些模型能够从海量的历史数据中学习,提供比传统分析方法更准确的预测,帮助金融机构做出更明智的投资决策。此外,生成式AI还可以在实时交易中提供策略支持,通过模拟不同的市场情景来优化交易算法。
比如一个新生的方向是用生成式AI来制定投资策略。首先,生成式AI可以创建针对特定投资者风险承受能力和投资目标的个性化投资策略。这些策略不仅包括股票和债券的购买和卖出指令,还可以涵盖更广泛的资产配置建议,包括商品、外汇和其他金融衍生品。AI的这种能力使得每个投资者都能获得最适合自己的策略,大大提高投资的回报率。
相似的,在健康医疗领域,生成式AI可以根据个人的健康数据生成个性化的健康报告和治疗方案。例如,通过分析患者的基因信息、生活习惯及历史病例,AI能够提供定制化的健康建议和药物治疗方案。此外,AI在药物研发过程中也能发挥巨大作用,通过模拟化学反应来预测新药的效果和副作用,大幅缩短药物上市前的研发时间。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-2.jpg


基于生成式AI的药物研发(左) 与 传统药物研发的流程对比(右);加速了开发速度

我自己其实也在进行相关的研究,主要集中在使用生成式AI对于分子结构的生成。本质上来说,研发新的药物其实就是寻找有效的药物分子结构,而生成式AI在经过大量的学习和历史数据后,可以很好地做到高质量地生成最有可能解决我们疾病的分子结构。和乱枪打鸟不同,这样的生成往往可以大幅度节约我们的评估时间。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-3.jpg


阿里云 模型即服务(Model as a Service, MaaS)

围绕着有趣的原生场景,很多大模型的企业也已经提前布局。特别是阿里云,它首创了“模型即服务(Model as a Service, MaaS)”的概念,这一策略极大地简化了大模型技术的接入和应用过程,使得各种规模的企业都能够利用这些先进的AI能力。通过MaaS,阿里云提供了一个平台,企业无需自行开发和维护复杂的AI模型,就可以按需访问和使用这些模型来解决实际问题,从而实现成本效率和创新能力的显著提升。
例如,阿里云推出的通义大模型家族,集成了多个行业应用的大规模AI模型,包括针对文字处理的超大规模语言模型通义千问。在企业办公环境中,通义千问已被集成到钉钉平台,能自动生成会议纪要、邮件、营销方案等内容。这不仅提高了工作效率,也激发了新的创意产生。此外,通义千问的应用还扩展到了电商领域,如天猫精灵和阿里购物平台,通过智能对话支持消费者做出购买决定,显著增强了消费者体验和满意度。在医疗健康领域,如通义仁心等模型,也能提供专业的健康咨询服务。这些模型基于大数据分析,提供个性化建议,帮助用户在复杂的医疗问题中做出更明智的决策。
在探讨非AI科技企业在采用AI技术时面临的挑战中,我们可以看到这些企业通常缺乏开发大模型的基础设施、硬件支持及数据安全与隐私保护能力。针对这些限制,像阿里云这样的公司提供的解决方案显得尤为重要。通过其AI基础设施和服务,阿里云为这些企业提供了一种无需重资本投入即可利用先进云计算和AI技术的方式。

去年是「大模型元年」,今年会是「AI应用落地元年」吗?-4.jpg


童语故事创始人张华在云栖大会上发表主旨演讲

以“童语故事”为例,这是一个基于阿里云通义大模型的AI创新应用,它能在短短几秒内为儿童创造专属绘本故事。这种应用利用数字分身技术将孩子的真实形象融入故事中,不仅增强了故事的互动性和个性化体验,还通过云计算技术显著降低了小微团队的创业门槛。企业可以利用阿里云提供的弹性算力和资源,快速迭代产品,从而在竞争激烈的市场中脱颖而出。
另一方面,“天猫精灵”的例子展示了AI技术如何通过多模态交互完善智能助手的功能。天猫精灵通过接入通义大模型,不仅在知识的广度和深度上得到增强,还能进行更复杂的任务处理,如查天气、订机票等日常任务。这种技术进步使得天猫精灵可以在更多生活场景中提供帮助,极大地提升了用户体验和企业的服务能力。这两个案例充分展示了通义模型如何帮助传统企业通过AI技术转型,利用云平台和大模型服务,不仅解决了技术和资本的挑战,还为企业开拓了新的增长路径和创新机会。
生成式人工智能正在重新定义可能性的边界,推动我们进入一个全新的技术时代。它不仅仅会改变某个特定行业,还会成为全方位的社会和经济动力。正如电力一度催生了工业革命,生成式AI也在塑造一个智能化革命的新时代,它的影响远远超出了技术领域,渗透到日常生活的每一个角落。
平台如阿里云和其通义大模型不仅使得强大的AI技术变得触手可及,还为非AI专业的企业提供了实现创新的平台,使它们能够无需深厚的技术积累即可迈向智能化。这种智能普及化可以带来我们上文提到的全新的业务模型和服务,为各行各业带来增长和发展机会。
随着对生成式AI的潜力进一步探索和实现,我们必将见证更多跨领域融合与创新,推动全球经济和社会进步。生成式AI不仅改变了我们解决问题的方式,更扩展了我们对未来的想象。在这个智能化快速发展的时代,我们有理由期待一个更加智能、高效和互联的世界。

您需要登录后才可以回帖 登录 | 立即注册