360发布视觉大模型,周鸿祎:多模态大模型与物联网结合是下一个风口

添加书签

专注AIGC领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展和应用落地,以及国内LLM的发展和市场研究,欢迎关注!

5月31日,三六零集团(下称“360”)举办视觉大模型及AI硬件新品发布会,360创始人周鸿祎参会并发表演讲——大模型开启AIoT新时代。
周鸿祎表示,过去的人工智能是弱人工智能,在此基础上打造的智能硬件不具有真正的智能。大模型出现后,计算机第一次真正的理解这个世界,并能够赋予AIoT真正的智能。大模型的出现标志着通用人工智能到来,AI完成了从感知层到认知层的进化,不仅对传统人工智能而言是一场颠覆性的革命,还能够推动自动驾驶、蛋白质计算、机器人控制等领域的发展。
“大模型将带来一场新工业革命”,在周鸿祎看来,所有软件、APP、网站,所有行业都值得用大模型进行重塑,而智能硬件是硬件化的APP。从大模型的发展趋势来看,多模态是大模型发展的必经之路,GPT-4最重要的变化是拥有了多模态的处理能力。因此,多模态大模型与物联网的结合将会成为下一个风口。
周鸿祎表示,多模态技术与智能硬件结合是大势所趋,未来大模型将成为物联网的大脑,物联网设备则相当于大模型的感知端,让大模型进化出“眼睛和耳朵”,大模型还有可能操控物联网设备,进化出嘴巴、手和脚,从而拥有行动力,最终实现从感知到认知,从理解到执行。
会上,360正式发布“360智脑-视觉大模型”。周鸿祎表示,大语言模型是构建视觉大模型的基础,多模态能力增强的核心是借助了大语言模型的认知、推理、决策能力。同时,视觉大模型也是“360智脑”的重要能力组成,能够看懂图片,未来还能看懂视频、听懂声音。
据介绍,360在视觉感知能力基础上,融合千亿参数“360智脑”大模型,基于十亿级互联网图文数据进行清洗训练,并针对安防场景百万级行业数据进行微调,最终打造出了360智脑-视觉大模型。

“目前,大模型的能力主要体现在软件层,当大模型接入智能硬件,会让大模型的能力从数字世界走向物理世界。”周鸿祎表示。

本文来源央广网,如有侵权请联系删除

END