4008-888-888

新闻

从现场人气火爆的Optimus二代模型机,到能替代电力维修人员灭火、转移负荷的“浦睿”机器人;从数据分析、知识管理到智能营销,一众经过迭代的大模型落地场景走向

您当前位置>首页 > 新闻 > 公司新闻 >

世界人工智能大会|打通堵点,AI产业化成更大增量

发表时间:2024-07-06

文章来源:admin

浏览次数:

从现场人气火爆的Optimus二代模型机,到能替代电力维修人员灭火、转移负荷的“浦睿”机器人;从数据分析、知识管理到智能营销,一众经过迭代的大模型落地场景走向纵深……从今年世界人工智能大会的展示不难发现,眼下越来越多人工智能(AI)技术已走出实验室,飞入各个产业领域“生根发芽”。与此同时,论坛上有关“AI+产业”发展路径的讨论也在针锋相对地激烈展开:大模型开发应该独树一帜还是众人拾柴火焰高?算力问题的解决要在终端还是云端?还有来自学界、业界的大咖们给出了各自的见解,在他们看来,打通这些堵点,将让AI产业化这一关键变量加速成为更大的增量。离开应用的基础模型“一文不值”“去卷应用,而不是卷模型,没有应用的基础模型一文不值。”在世界人工智能大会的产业发展主论坛上,百度创始人、董事长兼CEO李彦宏首先提出了这一观点:“百模大战”虽然使得我们追赶世界先进大模型的能力得到了提升,但也造成了社会资源尤其是算力资源的巨大浪费。“实际上,大模型的应用离我们并不遥远。”李彦宏说,基于基础模型的应用已渗透于各行各业。他以文心大模型举例说道,利用大模型能力处理订单,快递公司可以做到“一张图、一句话寄快递”,不再需要其他繁琐流程,寄一单快递的平均时间也从3分多钟缩短到19秒,且90%以上的售后问题都能交给大模型解决。同时,李彦宏还提醒要避免掉入“超级应用陷阱”——觉得一定要出现一个10亿级别DAU(日活用户)的App才叫成功,“这是移动时代的思维逻辑,现在‘超级能干’的应用比10亿DAU的‘超级应用’更重要。”他说,随着基础模型的日益强大,智能体是他看好的AI发展方向。目前,人工智能产业的飞速发展,催生了新的人机交互模式,核心便是AI大模型驱动的智能体。蚂蚁集团董事长兼CEO井贤栋也认为,在大模型时代,智能体是新的应用范式。业界普遍认为通用大模型落地产业面临3个能力短板:领域知识相对缺乏、复杂决策难以胜任以及对话交互不等于有效协同。“从我们的实践看,专业智能体可以有效破解这些难题。”他进一步解释,针对专业知识短板,蚂蚁与合作伙伴打造了大规模专业知识引擎,为大模型提供“专业教材”,让大模型具备专家知识水平。同时,针对复杂推理能力短板,蚂蚁与行业技术专家提出了专家级决策框架,让智能体借鉴人类专家的思考方式,构建专业的推理和决策能力。另一方面,关于大模型应用的开源与闭源之争,李彦宏认为,有些同行混淆了模型开源和代码开源的定义,模型开源与代码开源不同,无法做到众人拾柴火焰高,大多数应用场景并不适合开源模型,在商业化角度,闭源模型最能打。不过,也有其他大模型厂商持有不同意见。智谱AI首席执行官张鹏认为,大模型带来的是全新的类人能力,让机器能够去思考,而不是让机器成为一个更好的工具。因此,模型能力水平最核心的一点是要让模型更像人,人在解决问题时就是多模态的,未来大模型也要突破多模态发展。算力应终端发力还是交给云端算力问题一直是AI产业化应用中讨论的要打通的重要环节。如何解决算力问题所需的能源?终端发力还是交给云端?与会嘉宾们纷纷表达了自己的看法。华为常务董事、华为云CEO张平安认为,中国在光缆和5G等基础设施建设以及新能源利用上存在优势,AI算力发展要充分利用这一点。“但是,我们也必须认清现实,不能把AI的算力需求都放在终端来解决,而是要把端侧算力释放到云端。”移动芯片巨头高通公司中国区董事长孟樸则对端云AI的发展表达了不同的观点,他认为,如果将20%的生成式AI转移到终端侧,到2028年预计将节省160亿美元的算力资源。而随着小型生成式AI的进步,能够在终端运行与云端一样好甚至更好的生成式AI模型。同样关注能耗问题的还有社交数据实验室创始人安德雷斯·韦思岸,他认为,制约AI产业化发展的瓶颈之一是能源的有限性,AI算力每年都要消耗大量的能源。不过,在中国工程院院士、之江实验室主任、阿里云创始人王坚看来,AI存在3个不等式,即与现有的基础模型相比,我们的应用还不够好;与现有的算力相比,我们的模型还不够好;与现有的能源规模相比,我们的算力还不够好,“也就是说,现有的算力问题随着时间的发展可能在今后将不成为问题,届时将有新的能源或更高效的能源利用方式来解决这一问题。”

相关案例查看更多