AI端侧落地高端对话举办 聚焦异构AI算力、大模型和个人智能体_顶尖财经网
  您的位置:首页 >> 财经频道 >> 风险投资 >> 文章正文

AI端侧落地高端对话举办 聚焦异构AI算力、大模型和个人智能体

加入日期:2024-4-23 17:35:54

  联想科技创新科技大会(2024 Lenovo Tech World)近日在上海成功举办。同期,Al终端产业生态创新论坛隆重举行。论坛围绕“新机遇 新生态”主题,不仅聚焦产品的迭代升级和技术革新,更致力于深入探讨应用生态的演进趋势以及AI终端产业未来发展蓝图,为AI终端产业生态的稳健和持续发展注入新活力。

  业内30余位AI领域专家、科技领袖和近300位嘉宾参加此次论坛。联想、中国信息通信研究院等近30家机构和企业共同发起筹备AI终端产业生态联盟,助力发展开放、共赢、可持续的中国AI终端产业生态。

title=

  此外,论坛举办了“构建开放的AI应用生态”、“创新本地异构AI算力和个人智能体”、“探索AI终端创新与互联融合体验”主题展开三场高端对话。在“创新本地异构AI算力和个人智能体”高端对话环节,来自英特尔、AMD、高通、百川智能、阿里巴巴、联想等行业领军企业代表,针对异构AI算力、大模型和混合智能展开深入探讨,共话AI终端产业趋势与未来。

  (创新本地异构AI算力和个人智能体高端对话)

  构建用户专属的个人大模型,需要强大的混合AI算力相匹配。英特尔中国区技术部总经理高宇表示:“AI PC的应用都是复杂的复合型应用,要把正确的任务放在正确的计算引擎上,CPU+GPU+NPU三者能力不可或缺。英特尔将通过对硬件的不断创新,打造拥有更加强大的AI算力平台。持续与软件开发者进行深度合作,以推动AI应用在PC端侧的快速普及。”

  AMD大中华区市场营销副总裁纪朝晖表示,AMD一方面快速提升CPU+GPU+NPU的算力,去年推出第一代带有NPU的锐龙7040后,今年初已经面市第二代带有RyzenAI的锐龙8000处理器,年内还会有另一代际升级产品发布,为端侧AI模型和应用提供强大算力支持。另一方面AMD也非常重视和大模型、ISV合作伙伴一起,把现有的算力充分使用,目前已经有超过10个开源大模型在AMD端侧平台上做了量化,适配和优化工作。

  高通产品部高级总监王瑞刚指出,大模型在端侧应用的性能和用户体验在很大程度上取决于计算能力,而终端设备便携性和持续工作能力则受到功耗的影响。为了实现在端侧运行的最佳效果,大模型需要针对特定的硬件平台进行优化,同时硬件平台也需要进行相应的调整以适应这些大模型的需求。他说,“凭借异构计算和NPU的独特优势,十分期待骁龙X Elite平台能够助力联想等行业领导企业为下一代AI PC带来智能化和个性化的创新体验”。

  “要训练好一个大模型,就是让他从小学生开始读、到中学生、大学生再到博士。”百川智能联合创始人、联席总裁洪涛介绍说:“大模型是在‘造人’,随着专业知识和模型能力的提升,大众就可以更轻松普惠地获取世界知识和专业服务。”

  与上述从小到大、逐渐生长的模型路径相对应,另一种是轻量级模型的路径是从通用场景到垂直场景。阿里巴巴大模型业务负责人徐栋指出,模型小有很多好处,其推理性能强,可调试性高,能够与不同的行业和场景做结合,且成本低于超大参数的模型。“我们的模型参数考虑得非常全面,可以适配所有生态、所有开发者。”

  在论坛上,联想集团副总裁、联想研究院人工智能实验室负责人范建平介绍了联想在混合智能领域的技术成果。他表示,AI技术的爆发式发展,已经开启混合智能(Hybrid AI)和智能体(Agent)两大AI新范式,联想分别打造了混合智能解决方案和个人智能体系统架构,加速AI从云端向终端落地。其中,联想混合智能指的是云端公有大模型、企业私有大模型和端侧个人大模型的混合应用。

  联想集团首席研究员、人工智能实验室大模型研发负责人师忠超补充介绍说:“我们在GGUF的基础上发展了自己的一套轻量化的推理引擎,助力大模型“瘦身’,并与合作伙伴一起完成了大模型端侧部署的验证。希望有更多伙伴一起合作优化端侧推理引擎,让我们端侧的 AI 变得越来越好。”

  作为人工智能底层核心技术飞跃发展的成果,大模型技术极大地加速了人工智能普及速度,但在实际使用中还受到网络速度、云端效率、成本考量和隐私安全等种种限制。与会嘉宾认为,需要加快在算力、大模型在终端的创新,共同打造混合智能和智能体解决方案,以进一步推动AI在端侧落地,加速AI普惠进程。