<span style='color:red'>昆仑芯</span>P800单机8卡一体机首个通过中国信通院DeepSeek适配测试
  中国信通院开展DeepSeek大模型适配测试工作,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。  为加快推动我国人工智能基础软硬件从“可用”走向“好用”,中国信通院联合人工智能关键技术和应用评测工信部重点实验室构建了人工智能软硬件基准体系AISHPerf(Performance Benchmarks of Artificial Intelligence Software and Hardware),成立了人工智能软硬件协同创新与适配验证中心,参与单位共计70余家,覆盖芯片、计算设备、智算集群、网络通信、开发框架、系统软件、能力平台、关键应用等产业链关键环节。通过制定科学、统一的软硬件系列标准和基准测试体系,建设覆盖国内外主要软硬件路线的测试验证平台,有力推动我国人工智能软硬件深度适配和系统协同,加快我国基础软硬件生态日益完善,进一步提升算力利用效率。  2025年2月,信通院开展DeepSeek适配测试工作,该项工作客观评估了人工智能软硬件产品在实际应用中的性能水平,推动了基于自主软硬件生态的国产模型有序部署和应用推广,获得产业界高度关注和积极参与。  这次测试依托《人工智能 基础共性 面向大模型的软硬件系统适配能力评估方法》,该方法基于工业和信息化部人工智能标准化技术委员会与中国人工智能产业发展联盟构建,包括适配支持性、在线/离线场景适配性能和产品功能三个部分。测试方法面向多种典型应用场景,综合考虑并发数、BatchSize以及上下文长度等关键要素,能够全面评价适配效果,为需求方技术选型提供有效参考。  这次测试,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。
关键词:
发布时间:2025-04-01 10:00 阅读量:238 继续阅读>>
<span style='color:red'>昆仑芯</span>服务器中标招商银行算力重大项目
  近日,昆仑芯服务器中标招商银行AI芯片资源项目。基于该项目,昆仑芯P800将围绕多个核心业务场景,全面支持招商银行落地大模型应用。  昆仑芯P800基于新一代自研架构XPU-P,显存规格优于同类主流GPU20%-50%,对MoE架构更加友好,且率先支持8bit推理,全面支持MLA、多专家并行等特性。根据项目实测,昆仑芯P800对Qwen系列性能支持远超同类型国产芯片,部分多模态模型推理性能达到全行业领先水平,可快速提升多模态数据分析、客服、代码助手等场景的应用效能。P800单机8卡即可运行DeepSeek-V3/R1满血版,极致成本效率;仅需32台即可支持模型全参训练,高效完成模型持续训练和微调。  目前,昆仑芯P800已与主流通用处理器、操作系统、AI框架完成端到端适配,生态完备、灵活易用。相较行业同类产品,昆仑芯P800不仅性能卓越,且更加易于部署,显著降低大模型运行成本。  深耕AI加速领域十余年,昆仑芯团队积累了行业领先的互联网数据中心系统工程化能力。日前,昆仑芯P800万卡集群在国内率先点亮,并将于近期进一步点亮3万卡集群,为千行百业提供源源不断的稳定、高效算力动能。大模型时代,昆仑芯科技已与智能产业的上下游建立良好的合作生态,通过提供以AI芯片为基础的澎湃算力,在互联网、金融、能源、科研、交通、工业、教育等关系国计民生的众多领域广泛部署应用,加速智能化转型,创造了巨大的产业和社会价值。  招商银行是行业内领先的股份制商业银行,持续大力推动“科技引领创新”。昆仑芯服务器中标招商银行算力重大项目,将进一步加速各方在科技金融方面汇聚优势力量,结合招行的具体场景需求,推动大模型在内的相关合作,充分发挥大模型在业务中的实际效用,为打造金融行业“新质生产力”添砖加瓦。
关键词:
发布时间:2025-03-28 10:49 阅读量:287 继续阅读>>
<span style='color:red'>昆仑芯</span>P800×DeepSeekV3/R1,国产AI芯片首发
<span style='color:red'>昆仑芯</span>Anyinfer零代码实现<span style='color:red'>昆仑芯</span>AI加速卡模型推理
  当下,AI技术蓬勃发展,AI算法应用需求井喷。行业技术从业者在项目的不同阶段面临种种现实问题,这些问题无疑也增加了项目的复杂性和不确定性:  算法选型:  技术从业者极有可能遇到不同框架格式的算法模型;即便是同一个开源算法的实现,也可能是经过不同训练框架导出,因此模型的保存格式也会有所不同。  算法验证:  想在AI加速卡上评估算法的推理效果,就要针对不同推理框架的接口构造上百行代码的推理程序;如果效果不达预期,可能还需要更换其他框架的模型,这就需要重新构造一份不同的推理程序......  真正到了算法部署阶段,则将迎来更加严峻的挑战。  以上种种业内痛点,是否也在困扰您?看完这篇,基于昆仑芯AI加速卡的高效模型推理部署框架——昆仑芯Anyinfer,帮您一键全搞定!  一、昆仑芯Anyinfer  1. 昆仑芯Anyinfer架构图  2. 昆仑芯Anyinfer核心优势  A、强兼容性  在多个平台上支持零代码推理PaddlePaddle、PyTorch、ONNX、TensorFlow等多个主流框架格式的众多领域模型。  B、高人效  内置多款推理引擎,针对不同领域,用户无需学习特定框架编程接口,更不用编写多份推理程序,零代码验证模型在不同框架中的效果。  C、零代码  只需一行命令,即可完成模型验证评估,无需依据模型构建输入数据,也无需撰写模型转换、前后处理及推理脚本代码。  D、部署友好  支持C++与Python两套接口逻辑统一的API,用户在生产环境中部署模型更方便。  二、运行演示  1. 快速完成算法模型验证评估  一行命令,即可轻松验证模型精度、一键评估模型的推理性能等关键指标。  A、ONNX、PyTorch和TensorFlow模型在昆仑芯AI加速卡和CPU上的计算精度对比  B、PaddlePaddle模型在昆仑芯AI加速卡上的推理性能统计  2. 获取模型性能分析报告,为下一步模型优化做足准备  在初步完成算法模型的验证评估后,可利用昆仑芯Anyinfer深入研究模型中各个层面的性能,包括推理框架层面和算子执行层面等,助力进一步调优模型的推理性能。  3. 模型的基础性能调优  完成对模型的性能评估后,可以使用基础的调优方法来提高模型的推理性能。昆仑芯Anyinfer提供了一项非常便捷的功能:最佳QPS搜索。此功能将以往需要修改多个参数并多次执行的操作化繁为简,快速确定最适合项目需求的配置,提高用户体验。  4. 模型的高性能部署  完成算法模型的验证后,最关键的一步来了!昆仑芯Anyinfer可轻松应对生产环境部署这一挑战。仅需三个统一的C++接口,即可顺利将验证后的模型部署至生产环境中。  此外,昆仑芯Anyinfer还提供了方便的调试功能,例如算子的自动精度对比、模型转换等。同时,也提供了丰富的使用示例,包括多输入、多线程、多进程、多流推理等。种种行业痛点,昆仑芯Anyinfer轻松搞定。简洁而强大的解决方案,帮您把模型推理部署变得简单、高效。  目前,昆仑芯Anyinfer已在多个行业客户中投入使用,切实降低了行业客户人力成本,提高了项目交付效率,助力客户在行业竞争中取得领先优势。
关键词:
发布时间:2023-10-17 09:15 阅读量:1976 继续阅读>>
AI临港,从芯启航:<span style='color:red'>昆仑芯</span>临港办公区正式开业
  9月19日上午,在上海临港滴水湖AI创新港,昆仑芯临港办公区盛大开业。中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵、港城集团副总经理金玮琦、昆仑芯CEO欧阳剑、副总裁王勇、人力资源与行政负责人刘霜、公共事务部副总经理张嘉林等出席活动。  从左至右依次为:昆仑芯公共事务部副总经理张嘉林、昆仑芯副总裁王勇、昆仑芯CEO欧阳剑、中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵、港城集团副总经理金玮琦、昆仑芯人力资源与行政负责人刘霜。  人工智能作为上海战略部署重点发展的三大先导产业之一,是当前具有引领性的战略新技术和新一轮产业变革的核心驱动力。为全力推进人工智能产业发展,临港新片区重磅启动滴水湖AI创新港,集聚人工智能上下游企业,赋能产业创新发展。  作为我国人工智能芯片领军企业,昆仑芯秉承“让计算更智能”的使命,务实研发、攻坚克难,实现两代通用AI芯片量产,在互联网、工业、金融、能源、教育等多个领域达到过百家客户、数万片规模部署,成绩斐然。  2022年,昆仑芯正式落户临港新片区。昆仑芯上海公司成立,定位为昆仑芯最重要的研发基地之一,同时也是昆仑芯华东和华南区域的商业化基地。  上海汇聚了全国优秀的软硬件工程师,临港新片区也正在打造成为年轻人“创新创业首选地”。今年8月,临港新片区成立4周年,新一轮支持政策正在助力临港新片区更好地成为上海发展的“增长极”和“动力源”。高科技人才聚集、优厚的政策支持和良好的产业生态,各方面条件吸引昆仑芯深耕临港这片沃土。  开业仪式上,中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵表示:“作为国内最早入局人工智能加速的团队之一,昆仑芯近些年取得了业界广泛认可的成绩。期待临港新片区能涌现出更多这样的优秀企业,我们将持续提供政策支持和全方位的生活保障,与企业共绘蓝图、共建未来,携手推动AI产业的高质量发展。”  昆仑芯CEO欧阳剑在致辞中表示:“算力发展的黄金时代已来,凭借十余年的行业积累,务实自驱、卓越创新的昆仑芯人已做好攀登算力高峰的准备。未来,昆仑芯将与临港区政府、港城集团等伙伴紧密协同,为我国集成电路及AI事业贡献力量。”  昆仑芯副总裁王勇肩负上海公司组织建设的重要职责,他表示:“集成电路是临港新片区有影响力的高新产业。处于快速发展期的昆仑芯愿意同临港新片区一道,合作开展核心技术攻关,加强与新片区内上下游企业合作,吸引、培养更多高质量产业人才。”  AI临港,从芯启航。2022年昆仑芯正式落户临港,过去一年吸引了一大批优秀人才加入。今年年中,昆仑芯临港办公室正式落成,办公环境简约大气、周边配套完善, 8月份开始陆续有员工入驻。  昆仑芯临港办公区正式启用,昆仑芯信心满满,扬帆破浪踏足行,奋发向上勇攀登。而临港作为“年轻的城,年轻人的城”,也正在以日新月异的发展速度打动年轻人的心,吸引更多年轻人来到这里成长、成才、成功。
关键词:
发布时间:2023-09-20 10:34 阅读量:1998 继续阅读>>
首批!<span style='color:red'>昆仑芯</span>牵手宁夏建设人工智能芯片适配基地
  近日,全国首个由政府主导建设的人工智能芯片适配基地在2023中国算力大会上正式启动。昆仑芯成为首批加入人工智能芯片适配基地建设的头部企业,未来将继续凭借领先技术优势以及丰富落地成果赋能我国AI产业繁荣发展。  人工智能芯片适配基地建设启动仪式  2023年初,在工业和信息化部的大力指导下,在自治区通信管理局、工业和信息化厅的牵头部署下,银川市积极对标国家人工智能创新应用先导区要求,建设了人工智能芯片适配基地,旨在为全国GPU芯片厂商提供同平台较技、沟通对接的良好交流环境及丰富的应用、测试场景。  在工业和信息化部的支持下,目前,人工智能芯片适配基地汇集了交换中心、三大运营商、天云等本地企业力量,也吸引了AI芯片领军企业昆仑芯等成员的加入,适配基地成为了全国人工智能产业的创新和产业发展基地。  适配基地依托宁夏丰富的智能算力资源和算力应用,集聚行业内顶尖的科研机构和专业人才,配备先进的研发设施和生产能力,筹建稳定安全的人工智能芯片适配平台,为人工智能产业创新提供良好的开发与测试环境,目前已选取医疗大模型、AI视频、AI智能客服三个典型应用场景,率先开展人工智能芯片软硬件适配工作。  作为适配基地的首批参与单位,昆仑芯始终坚持开拓创新、软硬协同发展。目前,昆仑芯已量产两代芯片产品,实现百家客户、数万片部署。在为千行百业输送“更快、更强、更省”的算力的同时,昆仑芯积极携手AI产业链上下游,打造端到端解决方案,共拓AI芯片生态。  大会期间,昆仑芯携两代芯片系列产品亮相人工智能芯片适配基地,全面展示先进技术及丰富落地成果。  宁夏积极推进人工智能芯片适配基地的建设,进一步提升了宁夏在国内人工智能领域的地位和影响力。昆仑芯将与众多生态伙伴携手,为宁夏人工智能产业的创新发展作出积极贡献,进一步助力我国人工智能产业迈向新阶段。  2023 中国算力大会  2023中国算力大会由工业和信息化部、宁夏回族自治区人民政府共同主办。本届大会以“算领新产业潮流 力赋高质量发展”为主题,打造“主题论坛、成果展示、产业推介、先锋引领”四大核心内容,全面展示算力产业发展最新成果,为产业各方搭建交流合作平台。  昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-09-04 10:08 阅读量:1217 继续阅读>>
<span style='color:red'>昆仑芯</span>东数西算“芯”基建,加速大模型产业落地
  近日,“未来网络助力东数西算论坛”(以下简称“论坛”)在南京成功举办。作为第七届未来网络发展大会的主题活动之一,本次论坛邀请了政府领导、专家学者及行业精英,围绕“东数西算”工程的政策规划、工程实施、示范应用、产业链生态建设等方面展开深入探讨,以期形成未来网络支撑“东数西算”工程的共识,助力构建国家算力网络体系的新模式。  2022年,“东数西算”工程正式启动,并首次将算力资源提升到水、电、燃气等基础资源的高度。相关数据显示,到2023年底,全国数据中心总算力将超过200EFLOPS,高性能算力占比将达到10%。我国算力基础设施迎来了大规模需求的繁荣期,而算力基础设施的核心正是AI芯片。  “将东部算力需求有序引导到西部,促进东西部协同联动为大势所趋。在此背景下,昆仑芯率先推出软硬一体的端到端解决方案,满足客户在不同场景的真实算力需求。”昆仑芯CEO欧阳剑受邀出席论坛,并带来题为《东数西算“芯”基建,加速大模型产业落地》的精彩分享。  昆仑芯CEO 欧阳剑  在论坛分享中欧阳剑表示:“昆仑芯深耕AI加速领域十余年,拥有深刻的场景理解、深厚的技术积累、完备的软件生态等独特优势。目前,昆仑芯系列产品已在语义搜索、文心一格、能源行业大模型以及智源研究院等实际场景中得到规模应用。此外,昆仑芯全面拥抱开源社区,打造大模型开源推理套件,助力优化国内AI生态布局。面向未来,昆仑芯将继续携手生态伙伴,用算力筑牢东数西算‘芯’基建。”  “跨广域工业视觉大模型算网融合技术”重大成果正式对外发布  在本次大会上,昆仑芯助力百度智能云基于未来网络试验设施(CENI)打造的“跨广域工业视觉大模型算网融合技术”,作为重大成果在第七届未来网络发展大会上正式对外发布。  该技术成果依托于昆仑芯算力集群、百度文心视觉大模型、未来网络试验设施(CENI),将算力、网络、大模型和应用场景融合,实现行业大模型跨广域精调、推理服务,改变过去只能在工厂端就近部署算力和模型的方式,解决了工业场景产业链环节多、链条长等问题,降低企业使用行业大模型的门槛。  针对钢铁行业工业质检场景,在南京和上海之间,“算网融合技术”完成了跨广域间的“精调和推理”测试。  测试结果显示,在相距超300公里的两地之间,可实现行业大模型的推理、训练数据丢包率为0,语料获取效率提升83%,推理效率提升42%,云端算力相比本地化算力部署,模型精调训练后精度提升10%。  通过测试论证,算网融合技术能够同时满足企业对工业视觉大模型推理端到端业务和精调训练的性能需求,可以支撑后续视觉大模型在工业领域的场景落地和商业化。同时,基于昆仑芯的算力集群,大模型训练速度相比本地化算力部署显著提升。  过去六届未来网络发展大会发布了网络通信领域十余项全球领先的创新成果,其中相当一部分成果已被广泛应用于产业实践和国家关键领域的建设中。  未来,昆仑芯将继续发挥强大算力底座的关键支撑性作用,携手千行百业众多合作伙伴,加速算力网络创新成果转化和产业应用,稳步推进“东数西算”工程落地,助力我国数字化、网络化、智能化高质量发展。  第七届未来网络发展大会  第七届未来网络发展大会大会以“网络全球·决胜未来”为主题,旨在促进未来网络资源集聚、产业汇聚。围绕世界最新锐的网络技术趋势与课题方向,针对国家未来网络发展战略等重要议题,两院院士、国际院士等顶尖专家、龙头企业代表以及知名高校学者共百余位业界精英参会。  昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-09-04 09:59 阅读量:1829 继续阅读>>
再获殊荣!<span style='color:red'>昆仑芯</span>获评2022-2023年度中国IC独角兽企业
  近日,2022-2023年度(第六届)中国IC独角兽榜单重磅揭晓,昆仑芯凭借领先技术实力与优秀市场表现,获评本年度中国IC独角兽企业。这也是昆仑芯第二次斩获该荣誉。  当前,大模型时代正催生集成电路产业的新需求。相关数据显示,2020年至2025年,全球集成电路市场规模按年复合增长率6.0%计算,预计2025年将达到4750亿美元。集成电路已成为支撑经济社会发展和保障国家安全的战略性、基础性和先导性产业,也是世界主要国家和地区抢占工业经济制高点的必争领域。  中国IC独角兽遴选活动由赛迪顾问股份有限公司和北京芯合汇科技有限公司联合主办,旨在进一步鼓励我国具有市场竞争实力和投资价值的集成电路企业健康快速发展,总结企业发展的成功模式,挖掘我国集成电路领域的优秀创新企业,提升企业的国内外影响力,并助力探索具有中国特色的优秀企业估值体系。  本次征集面向国内集成电路设计、应用技术与芯片制造、封测、材料、设备、软件、分销以及集成电路相关的服务平台等优秀创新企业。经过专家评委团打分或对企业进行估值,最终从300余家参评企业中,遴选出36家中国IC独角兽企业、15家中国IC独角兽新锐企业。  2022-2023年度中国IC独角兽企业颁奖仪式  依托十余年AI加速领域研发积累与技术沉淀,昆仑芯持续精进在芯片架构、软件栈、工程化系统层级等方面的技术实力,不断推动产品竞争力提升。目前,公司已迭代两代芯片产品。其中,昆仑芯2代是国内首款采用GDDR6高性能显存的通用AI芯片,搭载新一代自研核心架构XPU-R,在通用性与易用性等方面显著提升。  基于强大的产品性能,昆仑芯深刻理解场景需求,携手生态伙伴打造软硬一体的端到端解决方案,加速产品应用落地。目前,昆仑芯已实现百家客户,数万片部署。  百度内部:昆仑芯已被部署在搜索、小度、自动驾驶、文心大模型等业务,也因此成为国内为数不多经历过互联网大规模核心算法考验的云端AI芯片。  百度外部:昆仑芯紧随产业智能化发展需求提供强大算力支持,在金融、工业、交通等客户的业务中广泛部署和使用,赋能千行百业智能化转型。  继首次获评2021-2022年度中国IC独角兽企业,昆仑芯再次入选本届中国IC独角兽榜单,这代表业界对昆仑芯创新能力、产品力和落地成果的全面认可。  未来,昆仑芯将继续坚持务实研发、开拓创新,把握大模型时代的重大战略机遇,携手生态伙伴构筑软硬一体的AI芯片生态,助力我国集成电路产业高质量发展。  关于昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-08-22 09:37 阅读量:1797 继续阅读>>
一文读懂<span style='color:red'>昆仑芯</span>大模型端到端解决方案
  新一轮人工智能热潮下,国内大模型群雄逐鹿,目前已有超过80个大模型公开测试。而相关数据显示,ChatGPT自发布以来,全球访问量环比增幅持续下降,6月首次出现环比下滑9.7%。泡沫退去,如何在大模型时代保持市场竞争力?  针对大模型场景,昆仑芯早已在产品定义上作出布局,相较第一代产品,昆仑芯2代AI芯片可大幅优化算力、互联和高性能,而在研的下一代产品则将提供更佳的性能体验。  在近日落幕的XceedCon2023人工智能芯片生态大会上,昆仑芯大模型端到端解决方案正式发布,该解决方案随即入选2023世界人工智能大会卓越人工智能引领者奖(Super AI Leader,简称SAIL奖)TOP30榜单。  昆仑芯副总裁王勇、昆仑芯互联网行业总经理王志鹏先后在XceedCon2023人工智能芯片生态大会、2023世界人工智能大会对昆仑芯大模型端到端解决方案进行发布与推介。本篇以下内容整理自现场实录。  软硬协同、技术创新  打造高性能产品矩阵  集十余年AI加速领域研发积累,昆仑芯核心团队于2017年在Hot Chips上发布自研、面向通用人工智能计算的芯片核心架构——昆仑芯XPU。目前,已有两代昆仑芯AI芯片基于该架构实现量产和规模部署。  昆仑芯XPU专为密集型计算而设计,相比GPU可提供更多AI加速单元,同时支持C/C++、类CUDA语法编程,兼具高性能和可编程性,适配几乎所有主流AI场景,满足不同行业的大模型训推需求。  大模型的演进必将伴随参数量的增加,更加依赖于分布式训练与推理能力。昆仑芯2代系列产品搭载新一代核心架构XPU-R,性能相较一代提升2-3倍,在分布式场景中优势明显。  01.  大显存  昆仑芯2代产品拥有32GB显存容量,在同价位产品中内存优势突出。  02.  高互联  昆仑芯通过领先技术,可实现单机八卡高速互联,带宽达到200GB/s;支持Direct RDMA,可实现跨机间低延时、高速通讯。  昆仑芯推出针对不同参数级别的大模型产品矩阵,兼具显存和算力成本优势。  昆仑芯AI加速卡R200-8F面向百亿以内参数量级,相比同类型产品性能提升20%;  昆仑芯AI加速器组R480-X8面向百亿至千亿参数量级,性能达到同类型产品的1.3倍以上;  昆仑芯AI加速器组R480-X8集群针对千亿以上参数量级,可实现多机多卡分布式推理。  昆仑芯大模型解决方案软件栈  软件生态层面,昆仑芯提供了针对大模型场景的专用加速库、丰富的云原生插件,支持文心一言、LLaMA、Bloom、ChatGLM、GPT等行业主流大模型。  昆仑芯XFT(XPU Fast Transformer)推理加速库,较原生框架小算子版本性能提升5倍以上。目前,XFT加速库已与百度飞桨、PyTorch等主流深度学习框架完成适配;  昆仑芯云原生插件可帮助用户快速完成和大模型平台的适配;同时提供昆仑芯SDK,帮助用户快速完成适配和实时自定义开发。  昆仑芯xHuggingface开源推理套件  此外,昆仑芯全面拥抱开源社区,积极携手生态伙伴构建软硬一体的AI芯片生态。  昆仑芯打造了xHuggingface开源推理套件,仅修改1-2行代码,即可快速搭建基于XPU的智能客服APP。同时,昆仑芯与飞桨PaddlePaddle的AI Studio社区紧密合作,基于xHuggingface开源推理套件向广大开发者提供更快、更强、更省的算力产品;  昆仑芯与飞桨深入协同适配行业主流大模型,可支持超大规模分布式训练与推理。针对稠密大模型,昆仑芯支持飞桨的Sharding并行、数据并行、模型并行、流水线并行四种并行方式;针对稀疏大模型,昆仑芯与飞桨共同打造大规模参数服务器架构,实现了万亿参数的大模型训练。  深入场景、真实历练  打磨端到端解决方案  昆仑芯深入了解不同应用场景下客户的真实需求,凭借软硬协同技术与高性能产品矩阵,为千行百业提供开箱即用的产品和全栈式AI服务。  大语言模型场景  目前,昆仑芯已与业界主流开源大模型完成适配,向客户开放开源软件库,供客户进行二次修改、微调,满足不同推理场景下的个性化定制需求。  GPT百亿参数大模型场景:昆仑芯产品的QPS相比主流165W产品提高30%以上,同时首字时延更低。  文心一格:目前已大规模应用昆仑芯产品,成本降低的同时,可实现2秒快速出图。  针对大语言模型训练场景,昆仑芯也可提供一整套精调的训练策略。目前,昆仑芯已适配pretrain、post-pretrain、SFT、LoRA等模型,可根据客户的数据量与计算资源情况,灵活推荐不同的训练模式。  能源行业:昆仑芯解决方案通过SFT训练模式,客户仅使用少量数据即可2天打造专属行业大模型。  智源研究院:昆仑芯和智源研究院在大模型方面已有深入合作。昆仑芯已完成和Aquila大语言模型推理任务的适配、精度调试和性能优化,并实现大规模分布式推理上线,训练任务适配优化中;同时也适配了智源eva视觉大模型,初步验证了大规模分布式预训练能力。  稀疏大模型推荐场景  稀疏大模型存在训练门槛高、算力消耗大等技术挑战。对于算法和模型持续高频迭代的推荐场景,昆仑芯始终将“安全可信”、“从GPU零成本无缝迁移”作为目标,实现训练与推理系统的紧密耦合,为客户降本增效。目前,昆仑芯已与互联网头部客户完成了训练场景的端到端联合开发,并在TB级以上稀疏大模型上完成了“替换主流GPU的全量上线”。  大模型的持续迭代加速了我国AI技术及AI产业的演进,利好政策的相继出台同时开启了我国大模型商用浪潮。面向未来,昆仑芯将始终坚持软硬协同创新,夯实AI领域综合优势,加速大模型产业落地,勇立大模型时代潮头。
关键词:
发布时间:2023-07-31 11:19 阅读量:3797 继续阅读>>
<span style='color:red'>昆仑芯</span>荣膺2023世界人工智能大会最高奖SAIL奖
  近日,2023世界人工智能大会卓越人工智能引领者奖(Super AI Leader,简称SAIL奖)TOP30榜单重磅发布。凭借软硬件创新技术、领先性能优势,昆仑芯参评产品从众多项目中脱颖而出,入选2023年度 SAIL TOP30榜单。  SAIL奖每年评选一次,今年是自2018年设立以来的第六年评奖。SAIL奖坚持“追求卓越、引领未来”的理念,“高端化、国际化、专业化、市场化、智能化”的原则。SAIL寓意丰富,“S”即“Superior”,代表了“超越”;“A”即“Applicative”,代表了“赋能”;“I”即“Innovative”,代表了“创新”;“L”即“Leading”,代表了“引领”。作为世界智能大会的最高奖项,本次评选采用专家推荐制,并通过独立公平的高层次、专业化评审,最终评选出SAIL奖。  大模型掀起新一轮行业热潮,为人工智能技术发展按下加速键。作为AI芯片领域的领军企业,昆仑芯始终坚持开拓创新,不断超越自我,探索大模型催化的产业新业态,引领大模型产业化落地,赋能千行百业智慧化转型。  此次获奖的昆仑芯新品,是为创新企业推出的一套完整的大模型算力软硬件解决方案。该解决方案于近日在XceedCon2023人工智能芯片生态大会暨昆仑芯周年庆上正式发布。  昆仑芯针对不同参数级别大模型的产品矩阵:  昆仑芯AI加速卡R200-8F面向百亿以下参数量级,性能可达到主流GPU1.2倍且价格更有优势;  昆仑芯R480-X8加速器组针对百亿到千亿参数量级,大内存和芯片互联的技术使其性能达到同类型GPU的1.3+倍;  千亿参数,可采用昆仑芯R480-X8集群,实现多机多卡分布式推理。  硬件创新  昆仑芯AI加速器组R480-X8搭载昆仑芯2代AI芯片,可提供更为集约的AI算力,实现大规模分布式集群部署。集群支持弹性RDMA网络,相较于传统网络通信时延降低2-3倍,有效提升并行加速比,实现模型开发迭代效率的极大提升。  昆仑芯AI加速器组R480-X8  软件创新  软件层面,昆仑芯提供针对大模型场景的专用加速库和高性能通信库,以及丰富的云原生插件,帮助用户快速完成和大模型平台的适配。目前昆仑芯产品矩阵适配主流行业大模型,包括文心一言、ChatGLM、GPT、OPT等,同时提供丰富的软件SDK,帮助用户快速完成适配和实时自定义的开发。  昆仑芯专为大模型设计的推理加速库XPU Fast Transformer(XFT)  目前,昆仑芯大模型端到端解决方案已在百度搜索、百度文心一格、研究机构、能源行业等场景应用落地,有效降低大模型开发及应用门槛,大幅提升大模型推理速度与准确性。
关键词:
发布时间:2023-07-17 10:38 阅读量:1716 继续阅读>>

跳转至

/ 2

  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
CDZVT2R20B ROHM Semiconductor
TL431ACLPR Texas Instruments
BD71847AMWV-E2 ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
MC33074DR2G onsemi
型号 品牌 抢购
IPZ40N04S5L4R8ATMA1 Infineon Technologies
TPS63050YFFR Texas Instruments
BP3621 ROHM Semiconductor
ESR03EZPJ151 ROHM Semiconductor
BU33JA2MNVX-CTL ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
关于我们
AMEYA360商城(www.ameya360.com)上线于2011年,现有超过3500家优质供应商,收录600万种产品型号数据,100多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+连接器等多个领域,平台主营业务涵盖电子元器件现货销售、BOM配单及提供产品配套资料等,为广大客户提供一站式购销服务。

请输入下方图片中的验证码:

验证码