Day 0支持|<span style='color:red'>昆仑芯</span>完成MiniMax M2.7模型极速适配
  MiniMax正式开源MiniMax M2.7模型。昆仑芯同步完成对该模型的Day 0适配与深度优化,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。  发布即适配,软硬协同支撑高效落地  MiniMax M2.7是M2系列的最新一代模型,也是首个深度参与自身迭代的版本。该模型具备自主构建复杂Agent Harness与Skills的能力,可动态更新Memory,并通过强化学习持续优化,实现“模型驱动模型进化”的闭环。在能力表现上,M2.7已覆盖从代码生成、日志排障到端到端项目交付的完整软件工程链路:SWE-Pro基准达到56.22%,整体表现追平GPT-5.3-Codex;在专业办公场景中,GDPval-AA评分位居行业前列,并在40个复杂Skills(>2000 Token)任务中保持97%的指令遵循率,展现出优异的稳定性与执行能力。  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiniMax M2.7已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景下保持优异表现。  为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库的完整能力,兼顾高效易用与工程化落地。该软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。  常态化Day 0响应,夯实国产AI算力底座  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续加快。昆仑芯已完成对多款主流大模型的首发适配,稳步实现“发布即支持”的快速落地能力,推动模型技术迭代与算力底座实现同频演进,充分体现其在软硬协同、生态兼容与工程化落地方面的综合实力。同时,该能力有效降低了模型部署与应用门槛,进一步加快AI应用的规模化拓展。  当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化架构与算法创新,不断提升开发与部署效率。面向未来,昆仑芯将进一步强化对主流前沿模型的高效适配能力,依托持续的技术创新与软硬协同优势,不断夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进。
关键词:
发布时间:2026-04-13 09:30 阅读量:324 继续阅读>>
发布即适配!<span style='color:red'>昆仑芯</span>率先完成智谱新一代旗舰模型GLM-5.1深度支持
  今日,智谱正式开源新一代旗舰模型GLM-5.1。作为当前全球领先的开源大模型之一,GLM-5.1在长程任务(Long Horizon Task)处理能力上实现了显著突破。模型发布当日,昆仑芯即完成P800系列产品的适配工作,成为国内首批实现GLM-5.1 Day 0适配的国产GPU厂商之一。  相较于GLM-5,GLM-5.1在整体能力上实现显著提升,尤其在代码生成与复杂任务处理方面表现突出。在更贴近真实开发场景的SWE-bench Pro基准测试中,GLM-5.1刷新全球成绩,超越GPT-5.4与Claude Opus 4.6。  与此同时,在模型整体性能大幅提升之外,GLM-5.1还在长程任务处理能力上取得了重要突破。不同于当前以分钟级交互为主的模型,GLM-5.1能够在单次任务中持续、自主地工作长达8小时,凭借自主规划、执行与迭代进化,最终交付完整的工程级成果。  发布即适配,软硬协同支撑高效落地  GLM-5.1发布当日,昆仑芯同步完成Day 0深度推理适配,实现模型“上线即可用”,并确保性能稳定释放。  依托底层算子优化与硬件加速能力的协同,GLM-5.1在昆仑芯平台上实现了高吞吐、低延迟的稳定运行,在复杂任务与长序列场景下依然保持高效表现。在代码生成、复杂推理、长文本理解等核心纯文本场景中,模型能力得以满血释放。  针对GLM-5.1的744B MoE架构、200K超长上下文及DSA稀疏注意力等核心特性,昆仑芯开展了全栈深度优化。在实际适配中,依托自研架构,团队持续完善算子覆盖能力与生态兼容体系,充分释放原生INT8/INT4精度的加速潜力,实现模型性能与算力效率的高效匹配,让每一份算力都能发挥最大价值。  昆仑芯软件负责人王勇表示:“GLM-5.1的Day 0深度推理适配,充分体现了昆仑芯在软件生态与软硬件协同方面的综合能力。通过底层算子重构与推理框架协同优化,实现模型结构与硬件架构的深度耦合,使模型在上线首日即可高效、稳定地释放算力性能。”  此次快速适配的背后,是昆仑芯长期构建的完备软硬件协同体系。昆仑芯提供从驱动到专用库的完备软件栈,全面覆盖模型开发与部署关键环节。该软件栈高度兼容主流AI开发生态,在保障计算性能充分释放的同时,有效降低开发门槛与模型迁移成本,使客户能够以更低的适应成本及更短的部署周期完成AI模型开发与部署落地。  坚实算力底座,支撑规模化应用部署  在硬件、系统和集群层面,昆仑芯持续推进算力基础设施的建设。从模型顺利跑通到性能持续优化,昆仑芯已为GLM-5.1打造了覆盖硬件、软件生态、系统和集群的全栈国产算力方案,全面适配企业级智能办公、代码开发、知识库构建等多元场景,助力企业高效释放模型能力,加速技术价值向产业价值转化。  依托深厚的软硬件协同与大规模系统设计能力,昆仑芯推出32卡及64卡超节点方案。相较传统8卡/16卡服务器,昆仑芯超节点产品在节点内通信带宽与算力密度上实现显著提升,带来训练与推理性能的跨越式跃升。此外,昆仑芯进一步发布256卡及512卡超节点技术,并持续向千卡级超节点演进,为更大规模模型应用提供坚实支撑。  在集群建设方面,2025年2月,昆仑芯成功点亮昆仑芯P800万卡集群,这是国内首个正式点亮的自研万卡AI集群。同年4月,该集群规模进一步扩展至3.2万卡。当前,昆仑芯的产品已落地多个千卡及万卡集群,实现长时间高效稳定运行。未来,昆仑芯将持续支持国产算力集群建设,推动模型在真实场景中的规模化应用,助力国产模型的创新发展。  持续保持Day 0节奏,构建国产算力生态协同能力  今年以来,昆仑芯已完成十余款主流模型的Day 0适配,覆盖智谱、通义千问、MiniMax等头部厂商的最新旗舰模型,实现语言、多模态、OCR与翻译等多场景全面覆盖。在适配数量、响应速度与生态广度方面,昆仑芯持续保持行业领先。  凭借其成熟、开放的软件生态,昆仑芯已完成与多款行业主流大模型的首发适配,实现“发布即支持”的快速落地能力。目前,昆仑芯正持续深化大模型适配与优化,全面支持各类模型架构与算法创新,助力开发者获得更流畅、高效的开发与部署体验。  随着国产开源大模型生态不断成熟,算力平台与模型之间的协同效率持续提升。常态化的Day 0级响应,充分验证了昆仑芯软件栈在模型快速迁移、性能释放及生态兼容方面的综合实力。  面向未来,昆仑芯将继续强化对主流前沿模型的高效适配,通过持续的技术创新与软硬协同优势,不断夯实国产AI算力底座,为加速产业智能化升级与数字化转型贡献力量。
关键词:
发布时间:2026-04-09 10:14 阅读量:461 继续阅读>>
<span style='color:red'>昆仑芯</span>Day 0适配智谱全新一代大模型GLM-5
  今日,智谱AI正式上线并开源全新一代大模型GLM-5。作为面向复杂系统工程与长程Agent任务打造的新一代模型,GLM-5在Coding与Agent能力上实现开源SOTA表现,在真实编程场景中的使用体验已逼近Claude Opus 4.5。当前,昆仑芯完成Day 0深度推理适配。通过底层算子优化与硬件加速能力,GLM-5已在昆仑芯产品上实现高吞吐、低延迟的稳定运行。  Day 0适配落地,软硬协同助推高效部署  在本次Day 0适配合作中,昆仑芯团队深度协同智谱AI,依托在底层算子优化与工具链建设方面的长期技术积累,围绕GLM-5的模型结构与推理特性开展了针对性的联合优化。双方在模型正式上线前,即完成适配与性能调优,确保发布当日实现稳定、高效运行。本次适配不仅实现Day 0支持,更在两大主流开源推理框架vLLM与SGLang上完成验证落地。在算力层面,昆仑芯高性能算子快速完成对GLM-5的DSA与MoE架构适配,并结合INT8量化、MTP优化及双机PP并行等技术手段,显著提升GLM-5在昆仑芯集群环境下的推理吞吐与整体运行效率。  昆仑芯软件负责人王勇表示:“GLM-5的Day 0深度推理适配,是昆仑芯软件生态能力和软硬件协同能力的一次集中体现。通过底层算子重构与推理框架协同优化,我们实现了模型结构特性与硬件架构能力的深度匹配,确保模型在上线首日即可稳定释放高性能算力。”  此次高效适配,得益于昆仑芯自研软件栈的出色兼容性和高效适配能力。昆仑芯提供从驱动到专用库的完备软件栈,全面覆盖模型开发与部署关键环节。该软件栈高度兼容主流AI开发生态,在保障计算性能充分释放的同时,有效降低开发门槛与模型迁移成本,使客户能够以更低的适应成本与更短的部署周期完成AI模型开发与部署落地。  坚实算力底座,万卡集群支撑大规模应用  截至目前,昆仑芯已与国内外多款主流大模型完成适配,其中多个模型更实现“发布即适配、上线即可用”。面向企业及开发者,昆仑芯正持续完善模型适配与部署能力,全面支持各类模型架构与算法创新,助力开发者获得更流畅、高效的开发与部署体验。  在集群建设方面,2025年2月,昆仑芯成功点亮昆仑芯P800万卡集群,这是国内首个正式点亮的自研万卡AI集群。同年4月,该集群规模进一步扩展至3.2万卡。未来,昆仑芯还将不断支持国产算力集群建设,推动模型在真实场景中的规模化应用,助力国产模型的创新发展。  软硬协同创新,共建国产AI开放生态  未来,昆仑芯将持续深耕全栈技术研发,强化软硬协同与生态共建能力,为国产算力高质量发展提供强劲动能。昆仑芯将携手生态伙伴与开发者深化国产模型与国产算力融合创新,共建开放共赢的大模型生态,加速AI技术在更多真实产业场景中的规模化落地应用,推动国产算力高质量发展。
关键词:
发布时间:2026-02-12 15:11 阅读量:766 继续阅读>>
<span style='color:red'>昆仑芯</span>超节点产品推出,大模型训推任务性能跨越式提升
  开年后,随着DeepSeek席卷千行百业,昆仑芯率先适配、业内首家单机部署满血版展示卓越性能,并在互联网、科研、金融等领域实现规模部署,一系列进展引发广泛关注。刚刚落幕的Create2025百度AI开发者大会上,昆仑芯作为底层算力核心被高频提及,三万卡集群点亮振奋人心,昆仑芯超节点也在大会上正式发布。  自ChatGPT问世,大模型参数快速增长,单卡显存无法容纳越来越大的模型参数,大模型对AI算力系统的并行通信能力提出越来越高的要求;同时开源MoE模型在多专家并行过程中也需要更高的通信效率。DeepSeek-V3/R1加速产业落地,AI算力集群对系统可扩展能力的需求变得空前迫切。  基于对大模型演进趋势及算力需求的前瞻预测,昆仑芯团队率先布局、潜心研发,面向大规模算力场景推出超节点新品,为AI算力集群性能优化和效率提升提供一套全栈解决方案。  昆仑芯超节点渲染图  1.全互联通信带宽提升8倍,训推性能跨越式提升  通过硬件架构创新,昆仑芯超节点突破传统单机8卡产品形态,超高密度设计使得单柜可容纳32/64张昆仑芯AI加速卡。单柜内卡间实现全互联通信,带宽提升高达8倍,一个机柜的算力最高可达到传统形态下8台8卡服务器,实现对MoE大模型单节点训练性能5-10倍、单卡推理效率13倍的大幅提升。  2.整柜功率可支持到120kW,大幅降低PUE  在能耗和散热方面,昆仑芯积极响应节能降耗政策,采用高效的冷板式液冷方式进行系统散热,整柜功率可支持到120kW,大幅降低数据中心的PUE(Power Usage Effectiveness,数据中心消耗的所有能源与IT负载消耗的能源的比值)。不仅如此,昆仑芯超节点支持液冷系统的漏液检测,可及时针对液冷故障进行预警、告警、修复等,最大化提高整机柜系统无间断稳定运行效率。  3.机柜间IB/RoCE通信,高带宽、低延迟  当前,各级政府、众多行业和头部企业集中发力,正在加快建设一批超大规模智算中心。针对集群拓展需求,昆仑芯超节点机柜间支持IB/RoCE通信,可实现跨柜高带宽、低延迟的数据传输,支持万卡以上规模的智算集群构建。  4.自研XPU Link,兼容主流scale-up通信标准  昆仑芯自研互联通信协议XPU Link,秉承一贯的“共生共赢”发展理念,昆仑芯XPU Link兼容scale-up通信标准OISA,与上下游合作伙伴共建超节点行业生态,携手推动国产AI算力在超节点集群中的规模部署和产业应用。  颠覆式的大模型和AI应用加速推动AI步入产业落地新阶段。AI下半场,昆仑芯凭借在芯片架构、集群系统、软件生态领域的深厚积累和全栈优势,竞争实力越发凸显。  目前,昆仑芯已实现三代产品大规模部署落地,通过与数百家客户紧密合作,将AI算力输送到互联网、运营商、智算、金融、能源电力、汽车等等千行万业,惠及数以亿计的终端用户。面向未来,昆仑芯将持续深耕AI芯片技术研发和产业应用,为我国AI产业发展注入源源不断的澎湃动力。
关键词:
发布时间:2025-04-27 11:10 阅读量:2906 继续阅读>>
<span style='color:red'>昆仑芯</span>P800单机8卡一体机首个通过中国信通院DeepSeek适配测试
  中国信通院开展DeepSeek大模型适配测试工作,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。  为加快推动我国人工智能基础软硬件从“可用”走向“好用”,中国信通院联合人工智能关键技术和应用评测工信部重点实验室构建了人工智能软硬件基准体系AISHPerf(Performance Benchmarks of Artificial Intelligence Software and Hardware),成立了人工智能软硬件协同创新与适配验证中心,参与单位共计70余家,覆盖芯片、计算设备、智算集群、网络通信、开发框架、系统软件、能力平台、关键应用等产业链关键环节。通过制定科学、统一的软硬件系列标准和基准测试体系,建设覆盖国内外主要软硬件路线的测试验证平台,有力推动我国人工智能软硬件深度适配和系统协同,加快我国基础软硬件生态日益完善,进一步提升算力利用效率。  2025年2月,信通院开展DeepSeek适配测试工作,该项工作客观评估了人工智能软硬件产品在实际应用中的性能水平,推动了基于自主软硬件生态的国产模型有序部署和应用推广,获得产业界高度关注和积极参与。  这次测试依托《人工智能 基础共性 面向大模型的软硬件系统适配能力评估方法》,该方法基于工业和信息化部人工智能标准化技术委员会与中国人工智能产业发展联盟构建,包括适配支持性、在线/离线场景适配性能和产品功能三个部分。测试方法面向多种典型应用场景,综合考虑并发数、BatchSize以及上下文长度等关键要素,能够全面评价适配效果,为需求方技术选型提供有效参考。  这次测试,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。
关键词:
发布时间:2025-04-01 10:00 阅读量:2108 继续阅读>>
<span style='color:red'>昆仑芯</span>服务器中标招商银行算力重大项目
  近日,昆仑芯服务器中标招商银行AI芯片资源项目。基于该项目,昆仑芯P800将围绕多个核心业务场景,全面支持招商银行落地大模型应用。  昆仑芯P800基于新一代自研架构XPU-P,显存规格优于同类主流GPU20%-50%,对MoE架构更加友好,且率先支持8bit推理,全面支持MLA、多专家并行等特性。根据项目实测,昆仑芯P800对Qwen系列性能支持远超同类型国产芯片,部分多模态模型推理性能达到全行业领先水平,可快速提升多模态数据分析、客服、代码助手等场景的应用效能。P800单机8卡即可运行DeepSeek-V3/R1满血版,极致成本效率;仅需32台即可支持模型全参训练,高效完成模型持续训练和微调。  目前,昆仑芯P800已与主流通用处理器、操作系统、AI框架完成端到端适配,生态完备、灵活易用。相较行业同类产品,昆仑芯P800不仅性能卓越,且更加易于部署,显著降低大模型运行成本。  深耕AI加速领域十余年,昆仑芯团队积累了行业领先的互联网数据中心系统工程化能力。日前,昆仑芯P800万卡集群在国内率先点亮,并将于近期进一步点亮3万卡集群,为千行百业提供源源不断的稳定、高效算力动能。大模型时代,昆仑芯科技已与智能产业的上下游建立良好的合作生态,通过提供以AI芯片为基础的澎湃算力,在互联网、金融、能源、科研、交通、工业、教育等关系国计民生的众多领域广泛部署应用,加速智能化转型,创造了巨大的产业和社会价值。  招商银行是行业内领先的股份制商业银行,持续大力推动“科技引领创新”。昆仑芯服务器中标招商银行算力重大项目,将进一步加速各方在科技金融方面汇聚优势力量,结合招行的具体场景需求,推动大模型在内的相关合作,充分发挥大模型在业务中的实际效用,为打造金融行业“新质生产力”添砖加瓦。
关键词:
发布时间:2025-03-28 10:49 阅读量:2583 继续阅读>>
<span style='color:red'>昆仑芯</span>P800×DeepSeekV3/R1,国产AI芯片首发
<span style='color:red'>昆仑芯</span>Anyinfer零代码实现<span style='color:red'>昆仑芯</span>AI加速卡模型推理
  当下,AI技术蓬勃发展,AI算法应用需求井喷。行业技术从业者在项目的不同阶段面临种种现实问题,这些问题无疑也增加了项目的复杂性和不确定性:  算法选型:  技术从业者极有可能遇到不同框架格式的算法模型;即便是同一个开源算法的实现,也可能是经过不同训练框架导出,因此模型的保存格式也会有所不同。  算法验证:  想在AI加速卡上评估算法的推理效果,就要针对不同推理框架的接口构造上百行代码的推理程序;如果效果不达预期,可能还需要更换其他框架的模型,这就需要重新构造一份不同的推理程序......  真正到了算法部署阶段,则将迎来更加严峻的挑战。  以上种种业内痛点,是否也在困扰您?看完这篇,基于昆仑芯AI加速卡的高效模型推理部署框架——昆仑芯Anyinfer,帮您一键全搞定!  一、昆仑芯Anyinfer  1. 昆仑芯Anyinfer架构图  2. 昆仑芯Anyinfer核心优势  A、强兼容性  在多个平台上支持零代码推理PaddlePaddle、PyTorch、ONNX、TensorFlow等多个主流框架格式的众多领域模型。  B、高人效  内置多款推理引擎,针对不同领域,用户无需学习特定框架编程接口,更不用编写多份推理程序,零代码验证模型在不同框架中的效果。  C、零代码  只需一行命令,即可完成模型验证评估,无需依据模型构建输入数据,也无需撰写模型转换、前后处理及推理脚本代码。  D、部署友好  支持C++与Python两套接口逻辑统一的API,用户在生产环境中部署模型更方便。  二、运行演示  1. 快速完成算法模型验证评估  一行命令,即可轻松验证模型精度、一键评估模型的推理性能等关键指标。  A、ONNX、PyTorch和TensorFlow模型在昆仑芯AI加速卡和CPU上的计算精度对比  B、PaddlePaddle模型在昆仑芯AI加速卡上的推理性能统计  2. 获取模型性能分析报告,为下一步模型优化做足准备  在初步完成算法模型的验证评估后,可利用昆仑芯Anyinfer深入研究模型中各个层面的性能,包括推理框架层面和算子执行层面等,助力进一步调优模型的推理性能。  3. 模型的基础性能调优  完成对模型的性能评估后,可以使用基础的调优方法来提高模型的推理性能。昆仑芯Anyinfer提供了一项非常便捷的功能:最佳QPS搜索。此功能将以往需要修改多个参数并多次执行的操作化繁为简,快速确定最适合项目需求的配置,提高用户体验。  4. 模型的高性能部署  完成算法模型的验证后,最关键的一步来了!昆仑芯Anyinfer可轻松应对生产环境部署这一挑战。仅需三个统一的C++接口,即可顺利将验证后的模型部署至生产环境中。  此外,昆仑芯Anyinfer还提供了方便的调试功能,例如算子的自动精度对比、模型转换等。同时,也提供了丰富的使用示例,包括多输入、多线程、多进程、多流推理等。种种行业痛点,昆仑芯Anyinfer轻松搞定。简洁而强大的解决方案,帮您把模型推理部署变得简单、高效。  目前,昆仑芯Anyinfer已在多个行业客户中投入使用,切实降低了行业客户人力成本,提高了项目交付效率,助力客户在行业竞争中取得领先优势。
关键词:
发布时间:2023-10-17 09:15 阅读量:3325 继续阅读>>
AI临港,从芯启航:<span style='color:red'>昆仑芯</span>临港办公区正式开业
  9月19日上午,在上海临港滴水湖AI创新港,昆仑芯临港办公区盛大开业。中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵、港城集团副总经理金玮琦、昆仑芯CEO欧阳剑、副总裁王勇、人力资源与行政负责人刘霜、公共事务部副总经理张嘉林等出席活动。  从左至右依次为:昆仑芯公共事务部副总经理张嘉林、昆仑芯副总裁王勇、昆仑芯CEO欧阳剑、中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵、港城集团副总经理金玮琦、昆仑芯人力资源与行政负责人刘霜。  人工智能作为上海战略部署重点发展的三大先导产业之一,是当前具有引领性的战略新技术和新一轮产业变革的核心驱动力。为全力推进人工智能产业发展,临港新片区重磅启动滴水湖AI创新港,集聚人工智能上下游企业,赋能产业创新发展。  作为我国人工智能芯片领军企业,昆仑芯秉承“让计算更智能”的使命,务实研发、攻坚克难,实现两代通用AI芯片量产,在互联网、工业、金融、能源、教育等多个领域达到过百家客户、数万片规模部署,成绩斐然。  2022年,昆仑芯正式落户临港新片区。昆仑芯上海公司成立,定位为昆仑芯最重要的研发基地之一,同时也是昆仑芯华东和华南区域的商业化基地。  上海汇聚了全国优秀的软硬件工程师,临港新片区也正在打造成为年轻人“创新创业首选地”。今年8月,临港新片区成立4周年,新一轮支持政策正在助力临港新片区更好地成为上海发展的“增长极”和“动力源”。高科技人才聚集、优厚的政策支持和良好的产业生态,各方面条件吸引昆仑芯深耕临港这片沃土。  开业仪式上,中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵表示:“作为国内最早入局人工智能加速的团队之一,昆仑芯近些年取得了业界广泛认可的成绩。期待临港新片区能涌现出更多这样的优秀企业,我们将持续提供政策支持和全方位的生活保障,与企业共绘蓝图、共建未来,携手推动AI产业的高质量发展。”  昆仑芯CEO欧阳剑在致辞中表示:“算力发展的黄金时代已来,凭借十余年的行业积累,务实自驱、卓越创新的昆仑芯人已做好攀登算力高峰的准备。未来,昆仑芯将与临港区政府、港城集团等伙伴紧密协同,为我国集成电路及AI事业贡献力量。”  昆仑芯副总裁王勇肩负上海公司组织建设的重要职责,他表示:“集成电路是临港新片区有影响力的高新产业。处于快速发展期的昆仑芯愿意同临港新片区一道,合作开展核心技术攻关,加强与新片区内上下游企业合作,吸引、培养更多高质量产业人才。”  AI临港,从芯启航。2022年昆仑芯正式落户临港,过去一年吸引了一大批优秀人才加入。今年年中,昆仑芯临港办公室正式落成,办公环境简约大气、周边配套完善, 8月份开始陆续有员工入驻。  昆仑芯临港办公区正式启用,昆仑芯信心满满,扬帆破浪踏足行,奋发向上勇攀登。而临港作为“年轻的城,年轻人的城”,也正在以日新月异的发展速度打动年轻人的心,吸引更多年轻人来到这里成长、成才、成功。
关键词:
发布时间:2023-09-20 10:34 阅读量:3303 继续阅读>>
首批!<span style='color:red'>昆仑芯</span>牵手宁夏建设人工智能芯片适配基地
  近日,全国首个由政府主导建设的人工智能芯片适配基地在2023中国算力大会上正式启动。昆仑芯成为首批加入人工智能芯片适配基地建设的头部企业,未来将继续凭借领先技术优势以及丰富落地成果赋能我国AI产业繁荣发展。  人工智能芯片适配基地建设启动仪式  2023年初,在工业和信息化部的大力指导下,在自治区通信管理局、工业和信息化厅的牵头部署下,银川市积极对标国家人工智能创新应用先导区要求,建设了人工智能芯片适配基地,旨在为全国GPU芯片厂商提供同平台较技、沟通对接的良好交流环境及丰富的应用、测试场景。  在工业和信息化部的支持下,目前,人工智能芯片适配基地汇集了交换中心、三大运营商、天云等本地企业力量,也吸引了AI芯片领军企业昆仑芯等成员的加入,适配基地成为了全国人工智能产业的创新和产业发展基地。  适配基地依托宁夏丰富的智能算力资源和算力应用,集聚行业内顶尖的科研机构和专业人才,配备先进的研发设施和生产能力,筹建稳定安全的人工智能芯片适配平台,为人工智能产业创新提供良好的开发与测试环境,目前已选取医疗大模型、AI视频、AI智能客服三个典型应用场景,率先开展人工智能芯片软硬件适配工作。  作为适配基地的首批参与单位,昆仑芯始终坚持开拓创新、软硬协同发展。目前,昆仑芯已量产两代芯片产品,实现百家客户、数万片部署。在为千行百业输送“更快、更强、更省”的算力的同时,昆仑芯积极携手AI产业链上下游,打造端到端解决方案,共拓AI芯片生态。  大会期间,昆仑芯携两代芯片系列产品亮相人工智能芯片适配基地,全面展示先进技术及丰富落地成果。  宁夏积极推进人工智能芯片适配基地的建设,进一步提升了宁夏在国内人工智能领域的地位和影响力。昆仑芯将与众多生态伙伴携手,为宁夏人工智能产业的创新发展作出积极贡献,进一步助力我国人工智能产业迈向新阶段。  2023 中国算力大会  2023中国算力大会由工业和信息化部、宁夏回族自治区人民政府共同主办。本届大会以“算领新产业潮流 力赋高质量发展”为主题,打造“主题论坛、成果展示、产业推介、先锋引领”四大核心内容,全面展示算力产业发展最新成果,为产业各方搭建交流合作平台。  昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-09-04 10:08 阅读量:1966 继续阅读>>

跳转至

/ 2

  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
CDZVT2R20B ROHM Semiconductor
BD71847AMWV-E2 ROHM Semiconductor
MC33074DR2G onsemi
TL431ACLPR Texas Instruments
RB751G-40T2R ROHM Semiconductor
型号 品牌 抢购
BU33JA2MNVX-CTL ROHM Semiconductor
ESR03EZPJ151 ROHM Semiconductor
BP3621 ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
STM32F429IGT6 STMicroelectronics
TPS63050YFFR Texas Instruments
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
关于我们
AMEYA360商城(www.ameya360.com)上线于2011年,现有超过3500家优质供应商,收录600万种产品型号数据,100多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+连接器等多个领域,平台主营业务涵盖电子元器件现货销售、BOM配单及提供产品配套资料等,为广大客户提供一站式购销服务。

请输入下方图片中的验证码:

验证码