深挖百度文心一言背后的自主可控生态链
百度计划于3月16日14时在北京总部召开新闻发布会,主题围绕文心一言。百度创始人、董事长兼首席执行官李彦宏,百度首席技术官王海峰将出席。
chatGPT无疑是革命性的,那么接下来就看看国内目前能对标的百度文心一言(英文名ERNIE Bot)的生态。
百度文心一言大模型成功必备的五要素,分别是数据、算力、平台、模型和生态,而百度作为国产ChatGPT的领头羊,五大要素皆已配备。
1. 海量数据: 即训练大参数模型的“燃料”,根据IDC数据,其拥有5500亿条知识,且已经应用于百度搜索、信息流、智能驾驶、百度地
图、小度等产品。
2. 模型储备: 百度实现了全生态的布局,其中包括NLP、CV、跨境大模型、生物计算等领域。
3. 平台方面: 拥有自主生态的百度百舸 · AI异构计算平台,具备高效率、多密度、高易用性、多场景部署、乐高式拼接等能力。
4. 算力底座: 百度自身具有建设智能算力中心的实力,技术领先且自主可控,已有典型落地案例;服务器方面拥有自妍的昆仑芯云服务器,具有AI计算能力领先、生态兼容、兼具硬件虚拟化、易开发等能力;昆仑芯1代是百度自妍的第一一代昆仑芯片,2020年底实现量产;昆仑芯2代也已于2021年8月量产;根据百度集团执行副总裁沈抖透露,昆仑芯3代将于2024年初量产。
5. 生态: 百度大模型赋能千行百业,已有落地应用,合作厂商分别覆盖科技、金融、航天、影视、汽车、电子制造等诸多产业。
归纳一下,炒作无非就是算力,算法和应用。首先看算力,百度拥有自主生态的算力底座,比如百度智算中心。看架构图核心是深度学习框架和算力芯片。
框架中飞桨(PaddlePaddle)是百度自研核心,同时支持MindSpore(华为开源)、Jittor(清华计图)、天元(旷视MegEngine),所以百度飞桨的合作伙伴将是重点。
根据公开资料:在Wave Summit 2022深度学习开发者峰会上,百度发布“飞桨硬件生态伙伴共创计划”, 英特尔(Intel)、英伟达(NVIDIA)、瑞芯微、Arm、Imagination等十余家国内外硬件厂商加入其中,共创软硬一体人工智能生态。国内的只有瑞芯微了。
2020年5月13日,瑞芯微Rockchip正式宣布,旗下AI芯片RK1808、RK1806适配百度飞桨(PaddlePaddle)开源深度学习平台,充分兼容飞桨轻量化推理引擎Paddle Lite。瑞芯微与百度展开的合作有着一个颇为清晰的目标——为AI行业赋能更多应用场景,加速AI产品落地进程。瑞芯微的AI芯片RK1808及RK1806,内置独立NPU神经计算单元,INT8 算力高达3.0TOPs。
2022年9月2日,由深度学习技术及应用国家工程研究中心主办,百度和张江集团承办的2022世界人工智能大会“软硬协同赋能产业未来专题论坛”成功举行。三家国内玩家发言:
芯原股份机器学习软件副总裁查凯南表示,百度飞桨作为优秀的国产深度学习平台,是芯原NPU IP的重要生态伙伴。在过去的一年中,百度和芯原的工程团队共同合作完成了Paddle-Lite和芯原TIM-VX的对接,让飞桨用户可以更方便地基于芯原NPU的芯片快速落地应用。
黑芝麻智能首席市场营销官杨宇欣表示,目前黑芝麻智能已携手飞桨等生态伙伴,以车规级大算力芯片赋能汽车产业发展,打造车端与路端的完整解决方案,加速新技术新产品的落地,构建开放的产业生态,共同推动汽车行业的智能化发展。
昆仑芯科技芯片首席架构师顾沧海表示,昆仑芯与百度飞桨等主流框架适配,支持推理和训练场景,已在丰富的业务场景落地,生态建设正在逐渐完备。
芯原股份,基于其约20年GPU领域的研发经验,推出的Vivante 3D GPGPU IP可提供从低功耗嵌入式设备到高性能服务器的计算能力,可以满足广泛的人工智能计算需求。面向人工智能应用领域的神经网络处理器Vivante NPU IP已被50家客户用于多达100余款人工智能芯片当中,这些芯片被运用于10 个领域,包括物联网、可穿戴设备、智能家居、智能电视、安防监控、服务器、汽车电子、智能手机、平板电脑以及智慧医疗。
GPU和NPU是AI计算的核心,不知道百度有没有用芯原的IP?
AI芯片方面,百度自研昆仑芯,其它如飞腾(中国长城)、海光(海光信息、中科曙光)。
中国长城与百度再次携手,成功完成基于自研擎天EF860双路服务器与昆仑AI加速卡的适配测试,这是双方继联合发布国内首款“PKS”国产AI服务器——AI-TF2000飞桨一体机后,在国产化人工智能领域的又一次突破。中国长城与百度联合发布的AI-TF2000飞桨一体机,基于PKS技术架构的单路服务器,采用飞腾CPU处理器+麒麟操作系统,集成百度自研的昆仑加速卡,能够拓展支持昇腾、寒武纪、比特大陆等国内主流AI加速卡,支持多种数据的训练和推理,成为国内首个实现单switch支持两块“全高全长双宽”国内AI加速卡的2U服务器。
中科曙光在互动平台表示,公司作为智能计算领域的先行者,已与百度开展多项合作。在产品适配方面,公司统一计算服务平台已实现与百度飞桨的适配,用户登录算力服务平台即可使用飞桨框架,同时曙光已完成与飞桨AI开发平台BML、AI学习与实训社区AI Studio的适配对接。目前曙光已成为百度文心一言(英文名:ERNIE Bot)首批生态合作伙伴,包括曙光AI算力服务以及AI服务器等算力基础设施,为百度“文心一言”的产业化应用和生态建设提供高效算力支撑。
其实自主可控的还有龙芯中科,理论上百度跟国内的自主CPU、GPU都要适配的。百度飞桨深度学习框架与龙芯3A5000完成适配,百度飞桨深度学习框架V2.1在龙芯3A5000环境上可以顺利安装,且系统整体运行稳定,满足用户的关键性应用需求。
炒作内容很简单:文心大模型 -> 飞桨PaddlePaddle -> 自主可控算力
所以综上,算力是核心,至于应用方面的概念股那太多了,接入API接口的都算。