昆仑芯东数西算“芯”基建,加速大模型产业落地

发布时间:2023-09-04 09:59
作者:AMEYA360
来源:网路
阅读量:1830

  近日,“未来网络助力东数西算论坛”(以下简称“论坛”)在南京成功举办。作为第七届未来网络发展大会的主题活动之一,本次论坛邀请了政府领导、专家学者及行业精英,围绕“东数西算”工程的政策规划、工程实施、示范应用、产业链生态建设等方面展开深入探讨,以期形成未来网络支撑“东数西算”工程的共识,助力构建国家算力网络体系的新模式。

  2022年,“东数西算”工程正式启动,并首次将算力资源提升到水、电、燃气等基础资源的高度。相关数据显示,到2023年底,全国数据中心总算力将超过200EFLOPS,高性能算力占比将达到10%。我国算力基础设施迎来了大规模需求的繁荣期,而算力基础设施的核心正是AI芯片。

  “将东部算力需求有序引导到西部,促进东西部协同联动为大势所趋。在此背景下,昆仑芯率先推出软硬一体的端到端解决方案,满足客户在不同场景的真实算力需求。”昆仑芯CEO欧阳剑受邀出席论坛,并带来题为《东数西算“芯”基建,加速大模型产业落地》的精彩分享。

昆仑芯东数西算“芯”基建,加速大模型产业落地

  昆仑芯CEO 欧阳剑

  在论坛分享中欧阳剑表示:“昆仑芯深耕AI加速领域十余年,拥有深刻的场景理解、深厚的技术积累、完备的软件生态等独特优势。目前,昆仑芯系列产品已在语义搜索、文心一格、能源行业大模型以及智源研究院等实际场景中得到规模应用。此外,昆仑芯全面拥抱开源社区,打造大模型开源推理套件,助力优化国内AI生态布局。面向未来,昆仑芯将继续携手生态伙伴,用算力筑牢东数西算‘芯’基建。”

昆仑芯东数西算“芯”基建,加速大模型产业落地

  “跨广域工业视觉大模型算网融合技术”重大成果正式对外发布

  在本次大会上,昆仑芯助力百度智能云基于未来网络试验设施(CENI)打造的“跨广域工业视觉大模型算网融合技术”,作为重大成果在第七届未来网络发展大会上正式对外发布。

  该技术成果依托于昆仑芯算力集群、百度文心视觉大模型、未来网络试验设施(CENI),将算力、网络、大模型和应用场景融合,实现行业大模型跨广域精调、推理服务,改变过去只能在工厂端就近部署算力和模型的方式,解决了工业场景产业链环节多、链条长等问题,降低企业使用行业大模型的门槛。

  针对钢铁行业工业质检场景,在南京和上海之间,“算网融合技术”完成了跨广域间的“精调和推理”测试。

  测试结果显示,在相距超300公里的两地之间,可实现行业大模型的推理、训练数据丢包率为0,语料获取效率提升83%,推理效率提升42%,云端算力相比本地化算力部署,模型精调训练后精度提升10%。

  通过测试论证,算网融合技术能够同时满足企业对工业视觉大模型推理端到端业务和精调训练的性能需求,可以支撑后续视觉大模型在工业领域的场景落地和商业化。同时,基于昆仑芯的算力集群,大模型训练速度相比本地化算力部署显著提升。

  过去六届未来网络发展大会发布了网络通信领域十余项全球领先的创新成果,其中相当一部分成果已被广泛应用于产业实践和国家关键领域的建设中。

  未来,昆仑芯将继续发挥强大算力底座的关键支撑性作用,携手千行百业众多合作伙伴,加速算力网络创新成果转化和产业应用,稳步推进“东数西算”工程落地,助力我国数字化、网络化、智能化高质量发展。

  第七届未来网络发展大会

  第七届未来网络发展大会大会以“网络全球·决胜未来”为主题,旨在促进未来网络资源集聚、产业汇聚。围绕世界最新锐的网络技术趋势与课题方向,针对国家未来网络发展战略等重要议题,两院院士、国际院士等顶尖专家、龙头企业代表以及知名高校学者共百余位业界精英参会。

  昆仑芯

  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。

  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。


(备注:文章来源于网络,信息仅供参考,不代表本网站观点,如有侵权请联系删除!)

在线留言询价

相关阅读
昆仑芯P800单机8卡一体机首个通过中国信通院DeepSeek适配测试
  中国信通院开展DeepSeek大模型适配测试工作,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。  为加快推动我国人工智能基础软硬件从“可用”走向“好用”,中国信通院联合人工智能关键技术和应用评测工信部重点实验室构建了人工智能软硬件基准体系AISHPerf(Performance Benchmarks of Artificial Intelligence Software and Hardware),成立了人工智能软硬件协同创新与适配验证中心,参与单位共计70余家,覆盖芯片、计算设备、智算集群、网络通信、开发框架、系统软件、能力平台、关键应用等产业链关键环节。通过制定科学、统一的软硬件系列标准和基准测试体系,建设覆盖国内外主要软硬件路线的测试验证平台,有力推动我国人工智能软硬件深度适配和系统协同,加快我国基础软硬件生态日益完善,进一步提升算力利用效率。  2025年2月,信通院开展DeepSeek适配测试工作,该项工作客观评估了人工智能软硬件产品在实际应用中的性能水平,推动了基于自主软硬件生态的国产模型有序部署和应用推广,获得产业界高度关注和积极参与。  这次测试依托《人工智能 基础共性 面向大模型的软硬件系统适配能力评估方法》,该方法基于工业和信息化部人工智能标准化技术委员会与中国人工智能产业发展联盟构建,包括适配支持性、在线/离线场景适配性能和产品功能三个部分。测试方法面向多种典型应用场景,综合考虑并发数、BatchSize以及上下文长度等关键要素,能够全面评价适配效果,为需求方技术选型提供有效参考。  这次测试,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。
2025-04-01 10:00 阅读量:239
昆仑芯服务器中标招商银行算力重大项目
  近日,昆仑芯服务器中标招商银行AI芯片资源项目。基于该项目,昆仑芯P800将围绕多个核心业务场景,全面支持招商银行落地大模型应用。  昆仑芯P800基于新一代自研架构XPU-P,显存规格优于同类主流GPU20%-50%,对MoE架构更加友好,且率先支持8bit推理,全面支持MLA、多专家并行等特性。根据项目实测,昆仑芯P800对Qwen系列性能支持远超同类型国产芯片,部分多模态模型推理性能达到全行业领先水平,可快速提升多模态数据分析、客服、代码助手等场景的应用效能。P800单机8卡即可运行DeepSeek-V3/R1满血版,极致成本效率;仅需32台即可支持模型全参训练,高效完成模型持续训练和微调。  目前,昆仑芯P800已与主流通用处理器、操作系统、AI框架完成端到端适配,生态完备、灵活易用。相较行业同类产品,昆仑芯P800不仅性能卓越,且更加易于部署,显著降低大模型运行成本。  深耕AI加速领域十余年,昆仑芯团队积累了行业领先的互联网数据中心系统工程化能力。日前,昆仑芯P800万卡集群在国内率先点亮,并将于近期进一步点亮3万卡集群,为千行百业提供源源不断的稳定、高效算力动能。大模型时代,昆仑芯科技已与智能产业的上下游建立良好的合作生态,通过提供以AI芯片为基础的澎湃算力,在互联网、金融、能源、科研、交通、工业、教育等关系国计民生的众多领域广泛部署应用,加速智能化转型,创造了巨大的产业和社会价值。  招商银行是行业内领先的股份制商业银行,持续大力推动“科技引领创新”。昆仑芯服务器中标招商银行算力重大项目,将进一步加速各方在科技金融方面汇聚优势力量,结合招行的具体场景需求,推动大模型在内的相关合作,充分发挥大模型在业务中的实际效用,为打造金融行业“新质生产力”添砖加瓦。
2025-03-28 10:49 阅读量:288
昆仑芯P800×DeepSeekV3/R1,国产AI芯片首发
昆仑芯Anyinfer零代码实现昆仑芯AI加速卡模型推理
  当下,AI技术蓬勃发展,AI算法应用需求井喷。行业技术从业者在项目的不同阶段面临种种现实问题,这些问题无疑也增加了项目的复杂性和不确定性:  算法选型:  技术从业者极有可能遇到不同框架格式的算法模型;即便是同一个开源算法的实现,也可能是经过不同训练框架导出,因此模型的保存格式也会有所不同。  算法验证:  想在AI加速卡上评估算法的推理效果,就要针对不同推理框架的接口构造上百行代码的推理程序;如果效果不达预期,可能还需要更换其他框架的模型,这就需要重新构造一份不同的推理程序......  真正到了算法部署阶段,则将迎来更加严峻的挑战。  以上种种业内痛点,是否也在困扰您?看完这篇,基于昆仑芯AI加速卡的高效模型推理部署框架——昆仑芯Anyinfer,帮您一键全搞定!  一、昆仑芯Anyinfer  1. 昆仑芯Anyinfer架构图  2. 昆仑芯Anyinfer核心优势  A、强兼容性  在多个平台上支持零代码推理PaddlePaddle、PyTorch、ONNX、TensorFlow等多个主流框架格式的众多领域模型。  B、高人效  内置多款推理引擎,针对不同领域,用户无需学习特定框架编程接口,更不用编写多份推理程序,零代码验证模型在不同框架中的效果。  C、零代码  只需一行命令,即可完成模型验证评估,无需依据模型构建输入数据,也无需撰写模型转换、前后处理及推理脚本代码。  D、部署友好  支持C++与Python两套接口逻辑统一的API,用户在生产环境中部署模型更方便。  二、运行演示  1. 快速完成算法模型验证评估  一行命令,即可轻松验证模型精度、一键评估模型的推理性能等关键指标。  A、ONNX、PyTorch和TensorFlow模型在昆仑芯AI加速卡和CPU上的计算精度对比  B、PaddlePaddle模型在昆仑芯AI加速卡上的推理性能统计  2. 获取模型性能分析报告,为下一步模型优化做足准备  在初步完成算法模型的验证评估后,可利用昆仑芯Anyinfer深入研究模型中各个层面的性能,包括推理框架层面和算子执行层面等,助力进一步调优模型的推理性能。  3. 模型的基础性能调优  完成对模型的性能评估后,可以使用基础的调优方法来提高模型的推理性能。昆仑芯Anyinfer提供了一项非常便捷的功能:最佳QPS搜索。此功能将以往需要修改多个参数并多次执行的操作化繁为简,快速确定最适合项目需求的配置,提高用户体验。  4. 模型的高性能部署  完成算法模型的验证后,最关键的一步来了!昆仑芯Anyinfer可轻松应对生产环境部署这一挑战。仅需三个统一的C++接口,即可顺利将验证后的模型部署至生产环境中。  此外,昆仑芯Anyinfer还提供了方便的调试功能,例如算子的自动精度对比、模型转换等。同时,也提供了丰富的使用示例,包括多输入、多线程、多进程、多流推理等。种种行业痛点,昆仑芯Anyinfer轻松搞定。简洁而强大的解决方案,帮您把模型推理部署变得简单、高效。  目前,昆仑芯Anyinfer已在多个行业客户中投入使用,切实降低了行业客户人力成本,提高了项目交付效率,助力客户在行业竞争中取得领先优势。
2023-10-17 09:15 阅读量:1978
  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
MC33074DR2G onsemi
CDZVT2R20B ROHM Semiconductor
TL431ACLPR Texas Instruments
BD71847AMWV-E2 ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
型号 品牌 抢购
ESR03EZPJ151 ROHM Semiconductor
BP3621 ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
TPS63050YFFR Texas Instruments
BU33JA2MNVX-CTL ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
相关百科
关于我们
AMEYA360微信服务号 AMEYA360微信服务号
AMEYA360商城(www.ameya360.com)上线于2011年,现 有超过3500家优质供应商,收录600万种产品型号数据,100 多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+ 连接器等多个领域,平台主营业务涵盖电子元器件现货销售、 BOM配单及提供产品配套资料等,为广大客户提供一站式购 销服务。

请输入下方图片中的验证码:

验证码