卡莱特LS910国产信创大模型推理服务器

发布时间:2026-05-06 13:58:17 浏览次数:5

2026年,中国大模型市场规模预计突破700亿元,企业级大模型日调用量已从10.2万亿Token跃升至37万亿Token,半年间增长263%。大模型正从“百模大战”的通用底座时期,加速迈入行业深度渗透与规模化应用的新阶段。


关键问题应运而生 :如何让算力从“可用”变为私域“好用”?


LS910,就是卡莱特的答案。





本地化部署,数据不出域



LS910是面向企业级应用推出国产AI推理服务器,专为安全分析、企业知识库问答、智能客服、文档理解、代码辅助等核心业务场景设计,支持Qwen3.6-27B等主流大模型的私有化部署。所有数据和推理过程均运行在客户本地环境,真正实现数据不出域,满足信创合规与数据安全要求。


 企业知识库问答

 长文档理解与摘要

会议纪要

自动生成

 代码辅助

与安全分析





深度调优

让每一分算力充分释放



  • 规格参数

模块

规格

主控单元

Kunpen922Cores

AI算力核心

昇腾Atlas 300I A2(910B)

64GB HBM显存

软件栈

CANN/MindSpore+自研优化层

提供OpenAI兼容API

  • 私域主流模型指标(Qwen3.6-27B)

能力项

参考指标

推荐上下文

128K tokens

(可选升级至256K)

单路输出速度

≥25tokens/s,

典型场景25–45 tokens/s

首Token延迟

短上下文2–4秒,

32K上下文4–12秒

实时并发

2–3路流式生成

在线会话

6–10个并发接入





灵活扩展,从单卡到多卡




业务增长时,通过增加算力卡即可平滑扩展,同一架构无需调整,保护前期投资。

Edge标准版(1卡):单部门知识库、智能助手

Max专业版(4卡):全公司多用户、长文档、多知识库

Pro高性能版(8卡):高并发或262K超长上下文任务





LS910大模型推理服务器,得益于昇腾910B算力底座与卡莱特全链路软件调优能力,可广泛应用于企业知识库问答、长文档理解、代码辅助等私有化AI场景。


产品采用“硬件 + 算子优化”一体化设计理念,实现推理吞吐、响应延迟、并发能力的平衡调优,可根据业务需求从单卡弹性扩展至多卡,在保障数据安全的同时,提供优异的性能表现与性价比。


欢迎更多业务伙伴垂询



评论 0

上一篇: 苏州工业 2026-04-23 15:44:04
下一篇: 没有符合条件的资讯

相关商品

温馨提示 ×
商品已成功加入购物车!
购物车共 0 件商品
去购物车结算