-
-
【深度:为什么DeepSeek最受益方向是云】
摘要DeepSeek给予云厂商低门槛部署“杀手级”应用机会,市场需求有望迎来广阔机遇。DeepSeek通过在架构设计、训练策略、算法优化以及硬件适配等多方面的创新实现在低算力条件下性能优异,配合其巧妙的蒸馏技术为模型的广泛运用打开想象空间。轻量化架构配合量化剪枝技术,使AI推理首... 展开全文深度:为什么DeepSeek最受益方向是云
摘要
DeepSeek给予云厂商低门槛部署“杀手级”应用机会,市场需求有望迎来广阔机遇。
DeepSeek通过在架构设计、训练策略、算法优化以及硬件适配等多方面的创新实现在低算力条件下性能优异,配合其巧妙的蒸馏技术为模型的广泛运用打开想象空间。轻量化架构配合量化剪枝技术,使AI推理首次真正突破硬件限制,部署成本从高端GPU扩展至消费级GPU。DeepSeek带来的平权效应缩小与海外模型的差距,高效的训练方法让算力门槛显著降低。而算力门槛的下降给予云厂商们以低门槛部署“杀手级”应用的机遇将不断扩大。
云厂商是DeepSeek能力的“放大器”:充足的算力“弹药”与用户覆盖能力。
DeepSeek 的出现让 AI算力回归平价,在DeepSeek拉平大模型之间差距的趋势下,能赢得“胜局”的决定权回落到算力层面,而云厂商在具备充足的算力“弹药”与广泛的用户覆盖的天然优势下,有望迅速反哺。而随着越来越多的公有云厂商拥抱DeepSeek 模型,其背后的算力资源回归同一起跑线,从而转为考量算力池的深度和用户覆盖的广度。
拥有海量GPU资源边缘侧云服务厂商或是最佳受益者。以顺网科技为代表的边缘云厂商过去业务积累了大量边缘侧中高端消费级GPU云服务资源,DeepSeek低算力要求使得其智算云2月5日官宣已可支持DeepSeek模型部署和运行服务,或成为激活DeepSeek“最后一公里”的最佳云服务厂商:
1、因为基于已有的大量冗余资源消费级中高端显卡资源部署服务,成本极低,性价比极高;
2、目前仅有的覆盖全国最靠近用户的海量边缘侧算力云服务资源,无论延时与算力调配响应体验最佳;
3、已经有以云电脑等为代表的DeepSeek潜在应用商业出口,变现路径清晰。
投资建议:DeepSeek开源给予了云服务厂商低门槛部署世界级AI“杀手级应用”,云服务企业又能弥补DeepSeek自身算力紧缺与大规模用户服务部署难题,故云服务厂商市场需求有望迎来广阔机遇。我们重点:
1、公有云:金山云、优刻得等;
2、边缘云:顺网科技、网宿科技;
3、混合云服务商:深信服、青云科技;
4、垂直行业SaaS:三六零、金山办公、萤石网络、软通动力、科大讯飞。
风险提示:技术发展不确定性,行业竞争加剧风险。
1 DeepSeek给予云厂商低门槛部署“杀手级”应用机会,市场需求有望迎来广阔机遇
1.1 创新技术架构:打破传统内存和算力瓶颈
DeepSeek通过多方面创新实现在低算力的同时性能优异。DeepSeek模型对算力要求相比以往大模型大幅降低,主要得益于其在架构设计、训练策略、算法优化以及硬件适配等多方面的创新。
多头潜注意力(MLA)、深度求索混合专家系统(DeepSeekMoE)的创新架构显著降低训练和推理时的内存占用和计算量。传统计算方式存在对 KV 矩阵重复计算的问题,这不仅浪费了大量的计算资源,还会导致显存消耗过大,影响模型的运行效率。而 MLA 技术巧妙地解决了这个难题,它通过独特的算法设计,减少了对 KV 矩阵的重复计算,大大降低了显存的消耗。而MOE 技术将模型分解为多个专家模型和一个门控网络,门控网络根据输入数据的特点,智能地选择合适的专家模型来处理,这样不仅减少了知识冗余,还提高了参数利用效率。在自然语言处理的语言模型任务中,使用 MOE 结构的 DeepSeek 模型可以用相对较少的参数,保持甚至提升语言生成的质量,同时显著降低训练和推理时的内存占用和计算量,根据CSDN,DeepSeekMoE在保持性能水平的同时,实现了相较传统MoE模型40%的计算开销降低。
图1:MLA及DeepSeekMOE基础架构
资料来源:DeepSeek-V3论文,民生证券研究院
DeepSeek-R1 在继承了V3的创新架构的基础上,在后训练阶段大规模使用了强化学习技术,自动选择有价值的数据进行标注和训练,减少数据标注量和计算资源浪费,并在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上, DeepSeek在 AIME 2024 测评中上获得 79.8% 的 pass@1 得分,略微超过 OpenAI-o1;在 MATH-500 上,获得了 97.3% 的得分,与 OpenAI-o1性能相当,并且显著优于其他模型。
DeepSeek的蒸馏技术为模型的广泛运用打开想象空间。模型蒸馏(Knowledge Distillation)是一种将大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的技术。在深度学习领域,模型参数数量通常被视为衡量模型复杂度和能力的一个重要指标,一般认为参数越多,模型能够学习到的知识和模式就越丰富,性能也就越强。然而,大参数模型也带来了诸多问题,如训练成本高昂,需要大量的计算资源和时间;部署和运行时对算力要求极高,限制了其在一些资源有限场景下的应用。
DeepSeek的蒸馏模型在计算资源、内存使用和推理速度方面都实现了显著的优化。蒸馏模型的参数量大幅减少,例如DeepSeek-R1-Distill-Qwen-7B的参数量仅为7B,相比原始的DeepSeek-R1(671B参数),计算复杂度显著降低。由于参数量的减少,蒸馏模型在内存占用方面也表现出色。且DeepSeek的蒸馏模型在推理速度上实现了显著提升。例如,DeepSeek-R1-Distill-Qwen-32B在处理复杂的推理任务时,推理速度比原始模型提高了约50倍。
且在多个基准测试中,DeepSeek的蒸馏模型表现优异。例如,DeepSeek-R1-Distill-Qwen-7B在AIME 2024基准测试中实现了55.5%的Pass@1,超越了QwQ-32B-Preview(最先进的开源模型)。DeepSeek-R1-Distill-Qwen-32B在AIME 2024上实现了72.6%的Pass@1,在MATH-500上实现了94.3%的Pass@1。这些结果表明,蒸馏模型在推理任务上不仅能够保持高性能,还能在某些情况下超越原始模型。
图4:DeepSeek蒸馏小模型的性能测评
资料来源:DeepSeek官方,民生证券研究院
1.2 DeepSeek突破硬件限制,算力“卖铲人”市场全面打开
轻量化架构配合量化剪枝技术,使AI推理首次真正突破硬件限制,部署成本从高端GPU扩展至消费级GPU。根据Mulianju测评,像DeepSeek-R1是一个专注于实时推理的优化版本,拥有15B参数,推理时激活全部15B参数,显存需求约为30GB(FP16精度),单张NVIDIA A100或单张RTX 4090等显卡可满足需求。DeepSeek-R1针对低延迟和高吞吐量进行了优化,适合实时应用场景。像DeepSeek 67B是一个拥有67B参数的大型模型,推理时激活全部67B参数,显存需求约为140GB(FP16精度)。推荐使用4张A100-80G GPU进行多卡并行推理。如果资源有限,可以考虑使用4/8-bit量化技术,显存可降低至原大小的25%~50%(如67B量化后单卡可运行)。其他DeepSeek模型所需硬件参数需求可见下表。
算力需求重心从训练往推理侧转移,从训练端的中心算力向边缘算力、消费算力和端侧算力倾斜。DeepSeek R1推理模型通过优化算法和计算路径,显著降低了大模型的训练成本,并为大模型在边缘设备及端侧的高效部署提供了有力支撑。尽管短期内DeepSeek的低成本高效训练方法可能导致训练需求下降,但从长远来看,随着模型的普及和应用场景的扩展,推理需求将显著增长,算力需求将从训练侧向推理侧转移,而DeepSeek的推理成本只有OpenAI的1/50左右,DeepSeek的技术和成本优势将使得算力在推理阶段得到更有效的利用。根据成都华微官方,成都华微正在全力推进DeepSeek R1推理模型的在端侧推理芯片部署。
图5:成都华微R1蒸馏测试代码
资料来源:成都华微官方,民生证券研究院
DeepSeek带来的平权效应缩小与海外模型的差距,高效的训练方法让算力门槛不断降低。DeepSeek-R1开源仓库采用标准化、宽松的MIT License,完全开源且不限制商用。这使得更多开源模型能够“站在巨人肩膀上”加速迭代,2025年有望成为开源模型快速进步的一年,开源和闭源模型的差距将进一步缩小。DeepSeek通过减少GPU规模、缩短训练周期等方式,降低了训练成本。例如,DeepSeek-V3的训练成本经济,在预训练阶段,训练每万亿tokens仅需180K H800 GPU小时,全模型训练仅需2.788M GPU小时。这种高效的训练方法使得原本可能被浪费的算力得到了更有效的利用。
2 云厂商是DeepSeek能力的“放大器”:充足的算力“弹药”与用户覆盖能力
2.1 海量算力的重新定价拉开算力平价时代序幕
DeepSeek的出现让AI算力回归平价,海量算力的重新定价将重塑云厂商市场格局。像DeepSeek这样高效、开源的大语言模型的出现,AI算力的需求和应用正在发生显著变化,如前所述,DeepSeek通过模型压缩和蒸馏技术、优化算法和计算路径和硬件与软件的协同优化,显著降低了大模型的训练成本,同时为大模型在边缘设备及端侧的高效部署提供了有力支撑。
DeepSeek全球火爆,云计算市场空间有望在DeepSeek的助推下进一步打开。据国内 AI 产品榜统计数据,DeepSeek 应用自2025年1月11 日发布,截至 1月31 日上线仅 21 天,日活跃用户 DAU 2215 万,达 ChatGPT 日活用户的 41.6%,超过豆包的日活用户 1695 万,DeepSeek 在 1 月份累计获得 1.25 亿用户,其中 80% 以上用户来自最后一周,即 DeepSeek 7 天完成了 1 亿用户的增长,在没有任何广告投放的情况下。且云厂商纷纷接入 DeepSeek 等模型,随着调用量的增加,不同规模的云厂商都能因算力需求增长而获得业务机会。根据中国信息通信研究院发布的《云计算白皮书(2024年)》显示,大模型推动云计算产业开启新一轮增长,我国市场将保持较高活力。2023年,我国云计算市场规模达6165亿元,同比增长35.5%,预计2027年我国云计算市场规模将突破2.1万亿元。且云计算市场空间有望在DeepSeek的助推下进一步打开。
2.1.1 云厂商市场竞争半径扩大
技术进步带来的AI算力的平价化不仅仅利好传统的AI算力供应商大厂,也会扩展到非传统大型云厂商。DeepSeek拉平大模型之间的差距后,底层仍旧依赖的是在其背后驱动的算力,云计算作为大模型的底层算力支撑,有望持续受益。头部云计算公司陆续接入DeepSeek,或将推动云服务商算力租赁及AI服务收入快速增长,同时DeepSeek开源模型低成本技术的创新,有望加速应用侧的繁荣,云算力需求将进一步上升。
国内外大型云服务厂商纷纷接入DeepSeek模型初见峥嵘,优刻得、金山云等非传统大型云厂商同样宣布适配及上架DeepSeek模型服务。市场也在密切关注云计算厂商的价值重估,DeepSeek的节前火爆出圈,春节后带动云计算板块迎来连日上涨, 2月7日,优刻得、并行科技、青云科技、用友网络、浪潮软件、神州数码等多只云计算相关个股涨停,其中2月5日起三日内优刻得上涨约70%,2月3日起五日内金山云收获40%左右涨幅。
2月8日金山云宣布在公有云场景和国资云/政务云场景已支持DeepSeek-R1/V3。公有云场景提供针对DeepSeek-R1蒸馏模型的多种镜像服务,用户可在公有云GPU云服务器、GPU裸金属服务器分别搭建推理服务并进行调参验证;金山云国资云/政务云场景,金山云国资云/政务云平台已正式上架 DeepSeek-R1和 DeepSeek-V3模型。通过集成金山云自研的内容安全服务,客户可实现模型安全增强与企业级高可用保障。
图8:金山云服务器获取DeepSeek镜像
资料来源:金山云官方,民生证券研究院
2.1.2 边缘算力厂商迎来新机遇
边缘算力、端侧算力迎来增量空间,拥有边缘算力基本盘和调度优势的企业将会迎来新的机遇。据IDC此前预测数据,云端推理占算力的比重将逐步提升,预计到2026年推理占62.2%,训练占37.8%。而DeepSeek的出现更有可能加速训练到推理的算力需求重心的转变,模型微调端和推理端会逐渐从训练端的中心算力向边缘算力、消费算力和端侧算力倾斜。根据量子位官微,开源用R1数据蒸馏的Qwen、Llama系列小模型,在某些任务上直接超过GPT-4o。这种技术不仅降低了硬件需求,还使得模型更适合在资源受限的端侧设备上运行。
手握闲时和冗余算力的云厂商及边缘算力供应商,算力资源得到重估,拥有边缘算力基本盘和实时调度优势的企业迎来新的发展机遇。以顺网科技为例,该公司近期发布公告表示,其已成功构建了强大的算力调度体系,能够全面纳管和调度云边缘算力与智算中心算力,并提供开箱即用的高性价比算力服务。通过在全国范围内布局的多个算力云边缘机房所构成的庞大算力池,顺网科技能够根据不同场景的算力需求,灵活进行算力的调度与调配,从而为各类用户提供稳定、高效的算力支持。
截至2023年底,顺网科技已成功落地300多个算力云边缘机房,并为超过50万终端提供服务。这一成就不仅彰显了顺网科技在算力领域的深厚积累,也体现了其在边缘算力调度方面的强大优势。随着市场需求的不断增长和技术的持续演进,顺网科技有望凭借其领先的算力基础设施和高效的调度能力,进一步拓展市场,为更多用户提供优质的算力服务。
2.2 云厂商平台优势明显,阈值上限再度打开
云资源成为“硬通货”,云厂商手握算力资源,打开阈值上限。DeepSeek通过开源实现了与OpenAI的o1模型性能相媲美的R1系列模型,不仅降低了技术门槛,还为中小企业和初创公司提供了平等的技术获取机会,从而推动了AI生态的完善。广大研究人员、开发者以及企业,无需依赖商业公司的闭源模型,能够基于DeepSeek的开源成果进行更深入的研究和开发。企业争相部署DeepSeek模型的背景下,算力模型的平铺最后,云厂商会因后天积累的算力资源而收益。DeepSeek模型的部署不仅降低了算力门槛,还为云厂商带来了新的收益机会。在大模型之间的差距被拉平的的趋势下,能赢得“胜局”的决定权落回到算力层面,云厂商在具备充足的算力“弹药”与广泛的用户覆盖的天然优势的天然优势的前提下,有望迅速反哺。
算力短缺让模型的使用捉襟见肘。在DeepSeek-R1发布后,用户访问量短时间内激增,导致服务器压力过大。DeepSeek在1月26日发布R1模型后连续多日出现了服务中断的情况,DeepSeek表示出自服务的不稳定性源自多重复杂因素:突发流量激增、系统升级适配中的问题以及底层基础设施的临时性波动。
国内外云厂商纷纷拥抱DeepSeek模型。1月30日起,亚马逊AWS宣布,其用户可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型,享受AWS提供的优质服务和支持。1月29日,微软也宣布DeepSeek-R1已在Azure AI Foundry和GitHub上提供,开发者将很快就能在Copilot +PC上本地运行DeepSeek的R1精简模型,以及在Windows上庞大的GPU生态系统中运行。国内云服务厂商们也陆续官宣DeepSeek的上线。微软CEO萨提亚·纳德拉(Satya Nadella)表示,DeepSeek“有一些真正的创新”,并认为AI成本下降是大趋势,“当Token价格下跌时,推理计算价格下跌,这意味着人们可以消费更多,也会有更多的App被编写出来。模型优化意味着AI将更加普遍,因此对于像微软这样的超大企业来说,这都是好消息。”
云厂商彼此之间能力差距缩小,“各有所长”的特点逐渐模糊。在DeepSeek走红之前,云厂商的算力服务确实呈现出“各有所长”的特点。这种现象主要源于不同云厂商在硬件配置、软件优化以及对特定应用场景的支持上存在差异:
1)不同的云厂商根据自身的技术路线和目标客户群体,选择不同的硬件配置。例如,专注于高性能计算的云厂商会大量部署A100或H100显卡,以支持大规模的深度学习任务;而另一些云厂商则可能更多地采用性价比更高的消费级显卡(如RTX 3090、4090),以满足中小规模的AI应用。
2)云厂商还需要支持不同的深度学习框架(如TensorFlow、PyTorch等),并针对这些框架进行优化,以提高模型的训练和推理效率。这种软件层面的适配进一步增加了云厂商在算力服务上的差异化。
3)云厂商的客户群体涵盖了从科研机构到企业用户,从初创公司到大型企业,不同的客户有不同的业务需求,为了满足这些多样化的业务需求,云厂商需要提供定制化的算力服务。
而随着越来越多的公有云厂商拥抱DeepSeek模型,这种云厂商“各有所长”的特点会逐渐模糊,在云厂商这个层面而言,抛开模型的技术层面,其背后的算力则处于同一起跑线,从而转为考量算力池的深变和用户覆盖的广度。
2.3云服务厂商成为心向往之
模型的平权化所带来的MaaS商业模式,其本质上没有超出IaaS、PaaS及SaaS的商业模式范畴。云服务主要分为三种模式:基础设施即服务(IaaS)、平台即服务(PaaS)和软件即服务(SaaS)。而模型即服务(MaaS)作为一种新兴的云服务模式逐渐受到关注,其核心是将AI模型作为一种服务提供给用户,用户可以通过API调用等方式直接使用这些模型,而无需自己训练和部署模型。随着DeepSeek的全面开源,各大厂商模型的平权化所带来的MaaS商业模式,其本质上没有超出IaaS、PaaS及SaaS的商业模式范畴。MaaS需要IaaS提供的基础设施来支持模型的训练和推理;用户可以在PaaS平台上开发应用程序,并通过API调用MaaS提供的AI模型;SaaS提供完整的软件应用,用户可以通过网络访问这些应用,按需付费;MaaS可以看作是SaaS的一种形式,提供完整的AI模型作为服务。
算力平权下的云商业模式闭环逻辑。综合以上分析我们认为,由于算力的门槛降低,使得大多手握闲时和冗余算力的云厂商(提供IaaS服务)及边缘算力供应商手中的算力开始重新估价,算力资源市场有望迎来平价时代。而AI应用结合算力资源的落地与否,既和大客户数群的数字化企业相关,也和直接为其提供云服务的云服务厂商(提供PaaS、SaaS服务)息息相关,手握客户场景和深入客户业务流程的云服务厂商成为算力平权下的云商业模式闭环的重要抓手。
AI应用结合算力资源的落地与否,和直面客户的数字化企业息息相关。云厂商虽然拥有海量的云资源,但这些资源通常通过云服务厂商的二次转换才能形成业务飞轮。因此,云服务厂商天然需要技术及产品落地的强者才能转换收益。深耕客户业务的相关云服务厂商通过其客户网络,实现快速推广和部署云服务,从而和云厂商形成共赢。
以海康威视为例,作为全球领先的视频监控产品及解决方案提供商,拥有广泛的客户渠道覆盖网络。截至2023年在国内,公司即设立了32个省级技术服务部,300个地市服务网点,3000余家重要合作伙伴及授权服务商,在国际及港澳台地区已设立80家分子公司和办事处,业务覆盖全球150多个主要国家和地区。
海康威视通过购买火山引擎、阿里云等云服务商(提供IaaS服务)资源,构建了强大的基础设施支持,为海康威视的PaaS和SaaS服务提供了底层支持。海康威视的PaaS服务提供了包括设备接入、数据处理、智能分析等在内的平台能力。其SaaS服务则进一步提供了面向特定行业的应用解决方案,如智慧城市、智慧交通、智慧安防等。以海康威视的云眸平台为例,作为SaaS服务的一部分,云眸为零售、社区、教育等多个行业提供了数字化转型解决方案,累计接入设备终端超过500万台。且在这种商业模式下,海康的整体毛利率依然居高不下,海康威视2023年智能物联产品及服务的毛利率为44.44%,显示出其超强的盈利能力,作为云服务厂商在这套商业模式下获利不菲。
3 重点公司梳理
3.1 金山云:知名独立云服务商
中国知名的独立云服务商。金山云创立于2012年,作为中国知名的独立云服务商,业务范围遍及全球多个国家和地区。2013年成为国内最大的云存储服务商之一,2017年 位列中国互联网云厂商前三。公司自2023年构建面向全行业人工智能的全栈公有云基础设施,提升高性能算力和网络、云原生基础设施、人工智能平台能力和行业应用能力的建设,为300+业务系统提供安全可靠的云服务。
根据赛迪顾问发布《2024中国央国企云市场研究报告》,金山云跻身赛迪2024中国央国企云市场者象限。金山云作为拥有自运营公有云平台的云服务商,聚焦“数据要素x”、“人工智能+”和“智能办公”三大解决方案,致力于成为“以云为基,数智驱动的‘泛政务云’提供商”。同时,金山云通过提升算力和网络、云原生基础设施、人工智能平台能力和行业应用能力的建设来构建面向全行业人工智能的全栈公有云基础设施,并已建立了完善的云标准化运维体系,覆盖了建云、上云、用云、管云的全过程,为政务云和国资云的快速部署和高效运行提供保障。
接入DeepSeek,满足公有云和国资云/政务云场景使用需求。2月8日,金山云宣布在公有云和国资云/政务云场景中全面支持DeepSeek-R1/V3,进一步拓展其在高性能大语言模型推理和微调任务的服务能力。金山云已发布基于DeepSeek-R1蒸馏模型的多种镜像服务,用户可在金山云官网免费体验。用户可以在公有云GPU云服务器和GPU裸金属服务器上搭建推理服务并进行调参验证,支持DeepSeek系列模型运行
3.2 优刻得:国产方案+全线云产品积淀
适配DeepSeek开源模型,提供“国产算力+国产模型”的端到端解决方案。根据优刻得云计算官方,优刻得凭借强大的技术能力和与壁砺TM系列进行适配兼容,仅用数小时即完成了对DeepSeek R1全系列蒸馏模型的支持,涵盖了从1.5B到70B各等级参数版本,包括LLaMA蒸馏模型和千问蒸馏模型。且根据优刻得官方,优刻得基于壁仞科技国产芯片的先进内存架构、多模型适配能力、广泛的数据精度支持以及解码能力,全面开展包括R1在内的DeepSeek全系列模型适配工作,以满足不同规模参数量模型的个性化部署需求。优刻得云平台与国产芯片厂商强强联合,目前已构建起从底层硬件到模型服务的完整AI技术栈,为中小企业和研究机构提供“国产算力+国产模型”的端到端解决方案。
深厚云服务模式积淀,全球级云供应商。优刻得(UCloud)自主研发IaaS、PaaS、大数据流通平台、AI服务平台,推出公有云、私有云、混合云、专有云等全线云产品,为政府、AI大模型、工业互联网、运营商、教育、医疗、零售、金融、互联网等各行业用户,提供全面的数字化转型升级服务。优刻得在全球设有31个可用区,遍及国内、东南亚、欧洲、北美、南美、非洲等25个地域,结合内蒙古乌兰察布、上海青浦两大自建数据中心,构建云网融合、安全稳定、智能敏捷、绿色低碳的数字信息基础设施,以及国内北、上、广、深、成等线下服务站,UCloud优刻得已为全球超过5万家企业级用户提供云服务。
3.3 顺网科技:国内边缘算力领军者
推理侧边缘算力需求契合公司发展战略,边缘算力市场不可忽视的力量。为了满足不断增长的边缘算力需求,顺网科技秉持“立足算力,聚焦AI”的全新战略,全力打造万卡规模的边缘算力平台——顺网算力市场,根据顺网科技2月5日在互动平台表示,顺网智算是一个AI INFRA平台,支持基于顺网云边缘算力和智算中心算力的全面调度、模型推理部署和API调用。目前已经可以支持DeepSeek模型的部署和运行。且根据财联社报道,公司接受机构调研时表示,公司的算力业务有望成为全国最大的边缘GPU算力平台。
顺网算力市场作为连接算力供需方的算力服务平台,通过整合各方边缘算力资源,提供开箱即用的高性价比算力服务,致力于成为中国领先的边缘算力平台。其具备以下显著优势:
1)万卡规模的调度系统能够轻松应对高并发业务场景,确保算力资源的高效利用,满足不断增长的算力需求;
2)去中心化的算力部署策略使得延迟得到有效降低,实现快速响应,从而满足对实时性要求极高的业务需求。
3)顺网算力市场采用灵活调度的业务模式,客户可根据不同算力需求进行个性化选择,实现成本优化和可持续经营。
3.4 网宿科技:专注边缘计算+全球部署
专注边缘计算,积累完备技术栈。网宿科技基于深厚的CDN经验积累,围绕分布式、可扩展性、安全性、实时易用和可管理性等一系列核心原则,于2018年正式推出了高效、安全且友好的边缘计算平台ECP。网宿科技在边缘计算平台的建设过程中投入了大量的研发资源,经历了百余次的版本迭代,沉淀了丰富的研发经验和完备的技术栈。
全球深度部署节点,边缘产品生态丰富。网宿在全球范围内建设了2800多个节点,遍布70多个国家和地区,合作覆盖国内全部运营商和海外200+运营商,在线服务器超过20万台;平台拥有涵盖单线、多线、BGP等多种线路类型,并支持GPU、X86、ARM等多种架构,丰富的算力资源储备,强大的资源服务能力,可以满足各种场景对算力和网络的需求。依托海量基础资源,网宿边缘计算平台提供丰富的产品服务,包括边缘云裸机、边缘云主机和边缘云手机等多种云服务产品形态,可以满足公共互联网和产业互联网不同客户对边缘计算的需求。网宿边缘计算的典型落地场景如在音视频实时交互场景,通过在靠近用户的边缘节点进行数据处理和传输,能够将延迟控制在毫秒级别,其中端到端国内延迟10-50ms,国际间100-300ms,从而确保实时互动的流畅性。
3.5 深信服:混合云架构+全渠道战略
“同架构混合云”解决方案,底层基于架构一致的私有云(线下)和托管云(线上),实现线上线下统一管理、统一监控运维。深信服借助“云间互联”技术安全便捷地实现线上同一VPC与线下大二层互通,并支持国产X86与ARM与线上互通;云上推出智能大脑,为线下的IT私有云提供远程监控和专家值守,协助用户闭环问题,提高本地数据中心的可靠性;同时建设云端服务中心,为线下私有云用户提供云上的灾备服务、数据库服务、安全防护服务等等,把复杂的IT运维交给云端专家。该方案广泛应用于“本地数据中心延伸”、“业务混合部署”、“混合云灾备”等场景,为企业数字化转型构筑坚实 IT 底座。
坚持全渠道战略,行业客户广泛。深信服始终坚持全面渠道化战略,全组织、全流程、全行业、全业务支持伙伴发展,可匹配多元化业务场景,能充分调动各方面资源,全面覆盖市场,并建立了类型多样、结构完备的渠道生态体系,与众多优质合作伙伴共同构筑了广泛而有活力的渠道网络,有利于产品和服务在不同领域、不同区域的推广。根据深信服官网,目前深信服已服务了国内90%以上的政府部委单位,能源行业公司产品和行业解决方案已服务5000多家电力、油气、煤炭等能源企业用户,且在安全业务方面,深信服已覆盖全国50%以上医疗用户单位。
3.6 青云科技:混合云先行者+智算生态矩阵
混合云先行者,打通人工智能落地“最后一公里”。公司以统一的技术架构体系交付公有云、私有云、托管云等多种云模式,通过 QingCloud 专线服务实现公有云、私有云、数据中心之间的网络直连与混网组合,帮助企业构建混合云架构。青云科技 CEO 林源在2024年10月9日主旨演讲中阐释,青云的使命是降低新技术的使用门槛、加速应用场景落地,通过连接算力供给方与需求方,推动企业数智化转型,并与生态伙伴共同解决人工智能落地“最后一公里”的问题。
发布智算生态矩阵,智算运维先锋。青云科技已经与 200 余家生态合作伙伴紧密合作,完成了 138 项生态适配,通过算力共赢计划、算力加速计划、模型共建计划,共同构建一个开放、多元、共赢的 AI 生态体系,以资源共享与优势互补来推动智算产业的整体发展,共同加速 AI 在百行千业的落地。青云科技致力于解决智算中心建设、运维管理与运营中的挑战与痛点,公司已经落地了近 30 个区域智算中心,通过灵活的 AI 算力交付方式,青云智算中心解决方案将多个地区的算力中心统一管理、运维和运营,极大提高资源利用效率的同时,节省了大量的配置和安装时间,提高了部署的效率和准确性。
且根据青云科技官方,青云科技旗下 AI 算力云服务——基石智算CoresHub 正式上线 DeepSeek-R1 系列模型。截至2025年2月7日,基石智算已经部署并上线了 DeepSeek 全系列大模型供用户选择使用。
3.7 三六零:专家协作模型云协同+AI安全护航
独创CoE专家协作模型技术架构, 百余模型“云”上协同调动。1月25日,360纳米AI搜索软件-AI搜索功能接入“DeepSeek-R1”大模型;1月30日上线“DeepSeek-R1”大模型-满血高速专线版。据360智慧商业,三六零独创CoE专家协作模型技术架构,召集了几乎行业内最强的15家AI大模型品牌,再加上360自研的大模型“360智脑”品牌,共16家品牌的100多个模型作为智能底座支撑AI搜索的能力。根据七麦数据显示,自2024年11月27日纳米AI搜索上线以来,截止到2025年2月7日,纳米AI搜索全平台下载量从开始的10756极速飙升至3850万左右。
AI安全为模型运行保驾护航。作为国内首家接入DeepSeek的数字安全企业,360提出用AI重塑安全,以独创“类脑分区”专家协同(CoE)架构,发掘攻击检测、运营处置、追踪溯源、安全知识管理、代码安全等场景,在政府、金融、央企、运营商、教育、医疗等关键基础设施行业落地使用,多次以分钟级速度帮助企业智能化拦截勒索病毒、捕获APT攻击,同时发挥“以模制模”的新思路,不久前审计并发现了近40个大模型相关安全漏洞。
3.8 金山办公:云办公行业领先者发挥新质生产力作用
全球知名的行业领先的办公软件和服务提供商。金山办公的核心产品WPS Office功能丰富,支持文字、表格、演示等多种办公组件,并且不断推出新的功能和服务,如金山协作、金山会议、金山日历等,形成了完整的办公协作套件矩阵。并在2023年发布了基于大语言模型的智能办公应用 WPS AI,锚定 AIGC(内容创作)、Copilot(智慧助理)、Insight(知识洞察)三个战略方向发展,将 AI 在国内办公软件领域率先落地的成果带给用户。截至 2023 年 12 月 31 日,公司主要产品月度活跃设备数为 5.98 亿,公司累计年度付费个人用户数达到 3,549 万,同比增长18.43%。2024年8 月5 日发布的2024 年度《财富》世界 500 强排行榜共有 133 家中国企业上榜,其中 90% 的中国企业使用 WPS 365 实现提质增效。
发挥新质生产力作用,助力企业数字化转型。公司面向组织级客户全新升级办公新质生产力平台WPS 365,提供内容创作、办公协作、开放生态及数字资产管理等能力。一方面,WPS 365中的即时通讯服务、轻维表、轻审批等功能为企业提升团队协作效率、管理研发项目、低成本搭建审批流程等提供了重要支撑;另一方面,通过WPS 365公有云/私有化部署的云文档系统,企业数字资产被严格加密保存云端,数据安全得到有效保障,企业在数字化转型过程中的需求得到全方位满足。截至2023年末,公司WPS 365已服务17,000余家头部政企客户,诸如云南、浙江、山东等地党政客户,以及上交所、中信建投和科大讯飞等知名企业客户,并形成标杆效应。
3.9 萤石网络:以云为重,终端+AI的两翼齐飞
萤石以“2+5+N”生态体系,构建其智能生活解决方案及开放式云平台服务。萤石构建“2+5+N”智能家居生态,以安全为核心,以萤石云为中心,搭载包括智能家居摄像机、智能入户、智能控制、智能服务机器人在内的四大自研硬件,开放接入环境控制、智能影音等子系统生态,实现家居及类家居场景的全屋智能化,同时利用互联互通的萤石云开放平台,与合作伙伴分享智能视频的云平台服务能力,共同打造物联网云生态。自2020年公司IoT物联云平台发布当年即平台接入设备数突破1亿,平台月活用户突破2600万。
萤石以云为核心,云端闭环,共谋协同增长。公司通过租赁数据中心和采购第三方云计算资源的方式,打造了计算、存储、网络等云基础设施保障;基于底层 IaaS资源,公司自主研发建设 PaaS 层物联云平台,包括音视频多媒体、消息通知处理、智能算法调度、视频存储备份、ERTC、大数据、物联接入等多种云平台 PaaS 服务。目前萤石云已成为全球领先的视频/视觉公有云平台,作为全球化物联云服务平台,通过构建多数据中心+就近服务点的方式服务于全球客户。
端侧AI算力需求同样契合萤石产品矩阵属性和发展战略。萤石网络目前已构建摄像头、智能门锁、清洁机器人等多个热门终端,并以立身之本的萤石云为基石,通过AI全面赋能,实现多终端并发叠加AI赋能。
3.10 软通动力:天璇AI平台获DeepSeek优化能力跃迁
DeepSeek-R1模型优化天璇,跃升获得“知识炼金”能力。作为中国数字技术产品和服务创新企业,软通动力2月4日宣布积极拥抱DeepSeek,率先进行产品的创新融合,通过把DeepSeek-R1接入天璇MaaS平台,以全栈AI技术服务加速企业智能化转型。天璇MaaS平台是向客户提供一站式的企业大模型技术底座,支持客户开发并管理行业大模型和应用场景大模型,已经在银行、保险、零售、农业、医疗、通用管理等多个垂直行业领域赋能客户智能化创新。平台始终秉持汇聚前沿 AI 模型的理念,全力加速创新进程,为客户提供卓越服务。同时,软通咨询则从战略高度出发,助力企业落地 AI 应用。通过深入的大模型分析、科学的数据治理、精准的模型生态与技术路线选择,不仅能够创新商业范式、提升咨询效率,还能切实提升企业的业务价值与客户满意度,引领行业迈向智能新高度。
软通动力通过整合DeepSeek-R1模型并进一步优化天璇AI Foundation平台,凭借其跨行业的深厚积累和强大的硬件生态优势,致力于提供安全、可靠的高性能AI解决方案,支撑企业在生产推理和训练方面的高效率需求,实现行业模型的快速落地,以低成本、高性能的方式推动个性化AI应用的发展。借助DeepSeek-R1模型在语言理解和推理方面的卓越能力,软通动力的天璇知识库实现了从被动检索向主动构建动态知识架构的跃升,获得了“知识炼金”的能力。
智能化是软通动力的重要发展战略,基于天璇智脑中枢构建了软硬全链条 AI 产品及服务。以咨询为牵引,融合如 DeepSeek-R1等卓越模型,持续进行技术与产品创新,助推企业大模型加速落地,并基于自身强大的技术生态搭建人工智能软硬件协同(包含训推一体机、AIPC、人形机器人、复合机器人等)产业链条,为客户提供全栈式高质量AI解决方案。
3.11 科大讯飞:讯飞星火深耕AI教育领域
基于全国产算力训练的国内领先讯飞星火大模型。2023年10月24日,科大讯飞与华为联合发布了国内首个全国产算力平台“飞星一号”。2024年10月24日,基于全国首个国产万卡算力训练的全民开放大模型讯飞星火4.0 Turbo正式发布。
根据真实数据背靠背的测试,七项核心能力在中文领域全面超过GPT-4 Turbo,代码能力和数学能力超越GPT-4o且星火4.0 Turbo在行业能力上也有明显的提升,例如,金融领域知识问答绝对提升14%,油气领域绝对提升了16%;在艾伦人工智能研究所、OpenAI等权威机构发布的14项主流测试集中,讯飞星火4.0 Turbo实现对美国三大主流模型(GPT-4o、Claude 3.5 Sonnet、Gemini 1.5pro)的9项超越,效率相对提升50%。
深耕AI教育领域,智慧办公SaaS平台业务广覆盖。科大讯飞的智慧教育业务实现了教育的全场景覆盖,包括教学、学习、考试、管理等,目前已覆盖全国32个省级行政区,超过5万所学校,累计服务师生超过1.3亿,并在日本、新加坡等海外市场应用。2024年发布的AI科学教育解决方案发布,已覆盖5万余名学生;星火智能批阅机在全国260多所学校开展试点应用;星火教师助手累计覆盖全国2000余所学校10万余名教师,让教学设计效率提升56%+、资源检索便捷度提升56%+、课件制作效率提升64%+。2024年“讯飞星火”App安卓下载量达2亿,讯飞智慧办公SaaS平台累计覆盖用户超8000万,生态用户2亿+。
【民生计算机】
赞(25) | 评论 (18) 02月11日 08:34 来自网站 举报
-
-
【【民生计算机】国产AI算力或是DeepSeek预期差最大的受益方向】
本周观点1.1 DeepSeek推动国内AI生态持续完善DeepSeek使用量快速增长:1)DAU:2025年1月11日至1月31日,DeepSeek 应用APP的DAU达2215万。2)MAU:2025年1月,DeepSeek 应用 APP的MAU为3370万,排全球第四;在国... 展开全文【民生计算机】国产AI算力或是DeepSeek预期差最大的受益方向
本周观点
1.1 DeepSeek推动国内AI生态持续完善
DeepSeek使用量快速增长:1)DAU:2025年1月11日至1月31日,DeepSeek 应用APP的DAU达2215万。2)MAU:2025年1月,DeepSeek 应用 APP的MAU为3370万,排全球第四;在国内,豆包以7861万 MAU 排第一,DeepSeek以3370万MAU列第二。3)终端使用也迎来明显增长:据大众日报,1月27日,苹果App Store中国区免费榜显示,DeepSeek登上首位。同时,DeepSeek在美国区苹果App Store免费榜从昨日的第六位飙升至第一位,超越ChatGPT、Meta旗下的社交媒体平台Threads、Google Gemini、Microsoft Copilot等生成式AI产品。
作为核心的基础设施,国内核心云厂商已经基本完成了对DeepSeek的适配。以火山引擎为例,其将支持V3/R1等不同尺寸的DeepSeek开源模型,可以通过两种方式进行模型使用:1)在火山引擎机器学习平台veMLP中部署,目前veMLP 已经支持全尺寸DeepSeek模型,并仔细对SGLang和vLLM做过性能调优和效果评测,火山引擎自研PD分离+EP并行的推理引擎也即将推出,全面开放。适用于自己进行模型定制、部署、推理的企业。2)在火山方舟中调用模型,适用于期望通过API快速集成预训练模型的企业,目前已经支持4个模型版本,并提供了全网最高的限流。
由此可见,DeepSeek等具有实力的模型推出,对于云的使用量会带来大幅提升,进而对国内算力需求起到持续的带动作用。
1.2 几个维度看DeepSeek推动推理算力需求提升
第一,DeepSeek真实的训练、推理成本不应低估。据DeepSeek V3论文,556万美元的成本仅包括DeepSeek-V3的正式训练,不包括与架构、算法、数据相关的前期研究、消融实验的成本。而基于充足前期准备进行正式训练的成本往往都比较低。以同样在2025年1月发布的加州大学伯克利Sky-T1-32B-Preview为例,其正式训练成本仅为450美元,但在数学能力等方面跑分超过OpenAI o1-Preview。
第二,DeepSeek针对算力生态的底层进行优化,有望进一步激发国产算力潜能。在 DeepSeek-V3 的技术博文中,DeepSeek表示其使用了英伟达的PTX(Parallel Thread Execution)语言,可以更精细地控制GPU之间传输数据、权重和梯度等,进而实现了算力使用效率的提升。对于国产算力,国内头部大模型(以DeepSeek为代表)也有望有较强的能力来进行生态的适配和优化,进而推动国产算力生态持续完善。
目前已有华为昇腾、沐曦、天数智芯、摩尔线程、海光信息、壁仞科技、太初元碁、云天励飞、燧原科技、昆仑芯、龙芯中科等10多家国产AI芯片陆续宣布适配DeepSeek大模型。
第三,开源叠加成本优化促进AI推理进一步普及,端侧、边缘侧AI推理有望加速发展。DeepSeek的技术能力在全球范围内处于领先地位,作为AI底座有望进一步加速AI应用、AI Agent等的落地。同时,由于其开源的属性,将进一步实现对国内AI生态的赋能。DeepSeek蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标OpenAI o1-mini的效果。技术实力强且开源的大模型将更快赋能国内端侧、边缘侧AI推理的发展。
其中,AI Agent和端侧的进展已经开始加速。鸿蒙HarmonyOS NEXT的小艺App在 2 月 5 日正式上架DeepSeek-R1 Beta版,可帮助用户在代码编写、数学计算、逻辑推理等方面提供智能问询服务。在车端,岚图汽车、吉利汽车、小鹏汽车都开始推动与DeepSeek的合作。
成本的优化也是促进AI推理普及的重要动力。DeepSeek-R1 API服务定价为每百万输入tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出tokens 16 元,较o1类推理模型的输入输出价格有了大幅度优化。
总结:降低AI行业进入门槛与成本,长期看将推动总需求上升而非下降。DeepSeek所有模型均为开源模型,即所有应用厂商都拥有了可以比肩顶级AI的大模型,而且还可自行二次开发、灵活部署,这将加速AI应用的发展进程。当模型的成本越低,开源模型发展越好,模型的部署、使用的频率就会越高,使用量就会越大。经济学上著名的“杰文斯悖论”提出:当技术进步提高了资源使用的效率,不仅没有减少这种资源的消耗,反而因为使用成本降低,刺激了更大的需求,最终导致资源使用总量上升。因此从更长的周期来看,DeepSeek的发展恰恰会加速AI的普及和创新,带来算力需求、特别是推理算力需求更大量级提升。
1.3 投资建议
DeepSeek等头部模型的发展让AI应用、AI Agent等加速落地,使用量快速提升推动AI算力需求进入从训练推动到推理推动的拐点,同时DeepSeek针对算力生态的底层进行优化,有望进一步激发国产算力潜能,国产算力迎来重要发展机遇。
建议重点关注国产AI算力产业链:1)芯片设计:重点关注寒武纪、海光信息等AI芯片龙头。2)国产AI算力液冷:高澜股份、英维克等。3)AI服务器领军企业浪潮信息、中兴通讯、紫光股份、中科曙光、工业富联等。4)昇腾一体机与服务器产业链:科大讯飞、软通动力、高新发展、中国长城、神州数码、拓息、烽火通信等。
2 行业新闻
外交部:回应多国禁止、限制使用DeepSeek
2月6日,外交部发言人郭嘉昆主持例行记者会。有记者提问,据报道,韩国的一些政府部门已经屏蔽对DeepSeek的访问,之前意大利、澳大利亚、印度、美国、日本等国家也传出禁止或限制使用DeepSeek的消息,一些企业也屏蔽对DeepSeek访问。中方如何看待这些动向?郭嘉昆表示,中国政府高度重视并依法保护数据隐私和安全,从来没有也不会要求企业或个人以违法的形式采集或存储数据。中方一贯反对泛化国家安全概念、将经贸科技问题政治化的做法,同时中方也将坚定维护中国企业的合法权益。
市场监管总局:对谷歌公司立案调查
2月4日消息,因谷歌公司涉嫌违反《中华人民共和国反垄断法》,市场监管总局依法对谷歌公司开展立案调查。
国家发改委:全面贯彻落实经济工作会议精神 扎实推动发展改革工作不断取得新进展新成效
2月6日消息,发改委主任郑栅洁发表署名文章指出,要加强基础研究和关键核心技术攻关,加强国家战略科技力量建设,超前布局重大科技项目,开展新技术新产品新场景大规模应用示范行动。大力支持制造业高质量发展,综合整治“内卷式”竞争,加强供需调控和产销衔接。加快新兴产业发展和未来产业培育,抓好数字经济高质量发展,加快构建全国一体化算力网,培育一批具有国际竞争力的数字产业。
环球网:法印将联合主持AI行动峰会
人工智能(AI)行动峰会将于2月10日至11日在巴黎举办,此次峰会由法国和印度联合主持,吸引全球100多个国家的和科技巨头代表参会。有法媒称,法国正努力推动欧洲在AI领域的崛起,并希望借此次峰会,在全球AI治理与发展中占据关键位置。在该峰会框架下进行的“人工智能行动周”活动于当地时间6日开幕。当天举行的跨部门AI委员会会议上,法国总理贝鲁还公布了35个数据中心选址。
3 公司新闻
朗新集团:2月7日消息,公司收到YUE QI出具的《关于股东减持计划届满实施情况的告知函》,截至2025年2月7日,本次减持计划期满,YUEQI通过集中竞价方式共减持朗新集团股份10,662,118股,占公司总股本的1.00%(公司总股本1,085,553,508股,剔除公司回购专用证券账户中股份数量后为1,066,249,366股)。
中望软件:2月7日消息,截至2025年1月31日,公司通过上海证券交易所交易系统以集中竞价交易方式累计回购股份211,785股,占公司目前总股本121,303,799股的比例为0.175%,回购成交的最高价为84.90元/股,最低价为61.48元/股,支付的资金总额为人民币16,691,549.06元(不含印花税、交易佣金等交易费用)。
麒麟信安:2月7日消息,根据军队采购网公示信息,近日公司已从军队采购失信名单中被移除,现已能够恢复参与军队物资工程服务采购活动。公司将严格按照《上海证券交易所科创板股票上市规则》和《湖南麒麟信安科技股份有限公司章程》等相关法律法规及制度要求,完善公司治理结构,建立健全内部控制制度,不断提升公司核心竞争力。
恒生电子:2月6日消息,2025年1月,公司未实施回购。截至2025年1月末,公司已累计回购股份2,377,600股,占公司总股本的比例为0.1255%,购买的最低价为28.01元/股、最高价为30.34元/股,已支付的总金额约为69,967,692.82元(不含交易费用)。
艾隆科技:2月6日消息,截至2025年1月31日,公司通过上海证券交易所交易系统以集中竞价交易方式累计回购公司股份771,069股,占公司总股本的比例为0.9988%,回购成交的最高价为14.85元/股,最低价为11.71元/股,支付的资金总额为人民币9,963,585.06元(不含印花税、手续费、过户费等费用)。
石基信息:2月5日消息,公司全资子公司石基新加坡与New World Hotel Management Limited(新世界酒店管理有限公司)签订《MASTER SERVICES AGREEMENT》,约定公司将为客户及其关联方旗下拥有、特许经营、管理或经营的酒店以SaaS服务的方式提供新一代云架构的企业级酒店信息管理系统Shiji Enterprise Platform -SEP(替换现有PMS),云餐饮系统Infrasys Cloud、水疗及休闲解决方案CONCEPT、石基支付解决方案等产品及相关配套产品和服务。
国能日新:2月5日消息,国能日新科技股份有限公司于近日收到中国证券监督管理委员会出具的《关于同意国能日新科技股份有限公司向特定对象发行股票注册的批复》。公司董事会将根据上述批复文件和相关法律法规的要求以及股东大会的授权,在规定期限内办理本次向特定对象发行股票的相关事宜,并及时履行信息披露义务。
4 本周市场回顾
本周(2.5-2.7)沪深300指数上涨1.98%,中小板指数上涨4.74%,创业板指数上涨5.36%,计算机(中信)板块上涨12.63%。板块个股涨幅前五名分别为:优刻得-W、安恒信息、卫宁健康、宝兰德、拓息;跌幅前五名分别为:天地科技、彩讯股份、迪威迅、乐鑫科技、淳中科技。
赞(20) | 评论 (12) 02月10日 08:04 来自网站 举报
-
-
【Deepseek驱动AI智能体火爆-深度梳理AI办公4家龙头】
DeepSeek凭借其卓越的生成式AI能力和多模态交互技术,结合开源特性和低成本优势,显著降低了AI创业的门槛和开发成本。这使得更多企业和创业者能够轻松进入AI应用开发领域。特别是在智能助手、内容创作、教育、医疗等领域,DeepSeek为用户提供了更高效和个性化的服务体验,同时加... 展开全文Deepseek驱动AI智能体火爆-深度梳理AI办公4家龙头
DeepSeek凭借其卓越的生成式AI能力和多模态交互技术,结合开源特性和低成本优势,显著降低了AI创业的门槛和开发成本。这使得更多企业和创业者能够轻松进入AI应用开发领域。特别是在智能助手、内容创作、教育、医疗等领域,DeepSeek为用户提供了更高效和个性化的服务体验,同时加速了AI技术在终端设备的普及。
展望2025年,有望成为AI智能体发展的关键转折点,尤其是在办公场景中。全球巨头如微软、谷歌、苹果、阿里其研发团队正将AI办公作为工作重点,因为它能直接提升生产效率。办公场景不仅是AI智能体应用的“主战场”,还涵盖了办公软件的自动化、协作、沟通以及任务管理等方面的智能化。未来,AI智能体将不再仅仅是辅助工具,而是成为团队合作和决策支持的核心力量。它们将能够自主承担更多工作任务,甚至在某些领域取代人工劳动力,成为新一代的“劳动者”。
第一家,金山办公
国内领先的办公软件及服务提供商,旗下主要产品包括WPS Office办公软件、金山文档等办公产品矩阵以及金山数字办公平台解决方案。产品已发布46种语言版本,覆盖220多个国家和地区,可在多种主流操作平台上使用。
业务结构上,个人办公服务订阅占比超过六成,机构业务超三成。主要服务国内,收入占比达到95%。公司在国内有较强竞争力,WPS Office系列产品研发始于1988年,是全球较早的办公软件产品之一。具有自主研发优势,并承担多项国家级重大科研项目。截至2024年6月,月度活跃设备数超过6亿。
在AI上也进行了多维度的深度布局:产品上,推出了基于大语言模型的智能办公助手WPS AI,目前已升级到2.0版本,覆盖写作、阅读、数据处理和设计四大功能,全面接入文字、表格、PPT、PDF等组件,并为个人、企业、政务用户提供定制化版本。技术合作上,接入智谱AI、文心一言等上百种大模型,锚定AIGC(内容创作)、Copilot(智慧助手)、Insight(知识洞察)三大方向。
与DeepSeek也有合作,WPS智能写作接入DeepSeek-Writer API,使公文生成效率提升3倍,错误率下降90%。将DeepSeek的生成式AI能力集成到WPS Office中,通过智能文档处理、内容生成、多语言翻译等功能,可以提升用户的办公效率和创作体验。有助于金山办公从传统文档处理工具向一站式AI办公平台转型,推动商业模式从传统授权模式向订阅模式靠拢。
业绩方面,近五年基本保持稳定小幅提升。
2024年前三季度,扣非净利同比增长15%。
第二家,彩讯股份
国内领先的企业信息化服务提供商,专注于企业数字化转型和智能化服务。产品线以信创邮箱为核心,包括Richmail邮件系统、RichOffice协同办公平台等。
主要为电信运营商、大型企业、政府和高校等组织提供套件化的电子邮件、即时通讯工具、数字办公室和内部信息协作平台。客户涵盖移动、银联、邮政、国家电网、中国通号等通信、金融、能源、交通行业的央国企巨头。
在AI方面,专注于AI +邮箱领域,通过彩讯AI Box一站式AI应用平台,推出了AI智能邮箱等产品,围绕邮箱、统一办公平台,朝着“数字员工”方向推进。
公司在互动平台表示,具备面向B端用户落地AI Agent服务的能力,并推出了AI邮箱、AI云盘、数字员工、智能客服、智能导购等多款产品。其AI Agent,主要基于全自研的Rich AIBox智能体应用开发平台,建立企业私域数据与大模型之间的桥梁、打通企业多个业务系统、链接各个业务流程,为客户构建专属的AI应用。
业绩方面,历史上一直保持盈利,近三年稳定增长。
2024年前三季度,在研发费用投入加大情况下,基本与前一年持平。
第三家,泛微网络
业界领先的协同管理软件及相关解决方案供应商,拥有e-cology、e-office、eteams 等多个自主知识产权的协同管理软件产品系列,可帮助组织构建统一的数字化运营平台。
所谓协同管理软件,就像一个智能“办公助手”,将流程审批、文档共享、任务协作和沟通交流等功能整合到一个平台,把邮件、会议、文件、审批单等集中在一个“工具箱”里,让员工随时随地高效协作。就像一个大管家,能把公司里不同部门、不同人员的工作连接起来。
目前已为全国8万余家政府机关及企事业单位客户提供服务,业务覆盖30多个行业的87个细分领域,在全国设有200多家分支机构,并在新加坡等海外地区设立了服务网点。
在AI智能体领域成果显著,于2024年12月推出“数智大脑Xiaoe.AI”。该平台采用“大模型+小模型+智能体”架构,结合自研大模型“小e”和多种小模型,支持AI问答、搜索、识别、审批等功能。平台提供50多种智能体服务和100多种智能组件,用户通过简单四步即可构建定制化智能体,并支持持续优化。目前已为西安建筑科技大学、上海建工等组织提供服务,显著提升运营效率,推动企业智能化转型。并且与腾讯深度合作,与企业、契约锁合力为客户提供内外协同的数字化运营平台,旨在推动政企客户的数字化转型。
业绩方面,一直保持着盈利,但2021年受宏观经济环境变化使得企业IT预算收紧,净利出现下滑。
2024年前三季度扣非净利,大概在6500万左右。
第四家,福昕软件
PDF电子文档领域的基础软件、通用软件和服务提供商,主要从事PDF相关产品的设计、研发、销售与运营。产品适用于桌面电脑、平板电脑、企业级服务器、智能手机、嵌入式设备等应用终端,可兼容Windows、Mac、Linux、Android、iOS等各类操作系统。
公司早在2004年发布具有自主知识产权的福昕PDF阅读器,是全球较早的PDF软件产品之一。在全球PDF电子文档市场,处于第二梯队前列,而第一梯队领头羊无疑是Adobe。公司的客户主要在海外,超过9成收入来源于境外。其中北美占比超五成,欧洲超两成,而中国大陆不足一成。
在AI方面,以PDF处理为核心拓展AI办公应用,在PDF编辑、转换、阅读功能中融入AI技术,为数据合规需求企业提供iDox.AI服务,基于大语言模型实现智能问答。
在AI智能体方面,PDF编辑器集成AI助手,办公套装整合AI技术,超100个PDF功能指令AI化,与戴尔达成合作;技术研发聚焦结构化数据提取和企业级知识库搭建,智能文档处理中台已在教育、政法系统试点。海外版PDF编辑器接入GPT3.5,国内版在准备接入百度文心。
不过业绩方面压力较大,受经济环境的不确定性导致企业IT支出缩减,影响了软件销售和订阅收入,近三年都处于亏损状态。
根据快报,预计2024年扣非净利亏损达到1.6亿到1.9亿。赛道投研
赞(31) | 评论 (17) 02月09日 14:06 来自网站 举报
-
-
【一文读懂DeepSeek】
浙商计算机:1、DeepSeek是坚持技术创新的中国大模型,中国模型出圈。DeepSeek成立于2023年7月,由知名量化资管巨头幻方量化创立,其掌门人梁文锋是DeepSeek的创始人,在暗涌专访中,梁文峰谈到:“这一波浪潮里,我们的出发点,就不是趁机赚一笔,而是走到技术的前沿,... 展开全文一文读懂DeepSeek
浙商计算机:1、DeepSeek是坚持技术创新的中国大模型,中国模型出圈。
DeepSeek成立于2023年7月,由知名量化资管巨头幻方量化创立,其掌门人梁文锋是DeepSeek的创始人,在暗涌专访中,梁文峰谈到:“这一波浪潮里,我们的出发点,就不是趁机赚一笔,而是走到技术的前沿,去推动整个生态发展。”根据2月3日AI产品榜数据,DeepSeek APP上线20天日活超2000万。根据Appfigures的数据显示(不包括中国的第三方应用商店),DeepSeek App于1月26日登上苹果AppStore全球下载榜榜首。根据Sensor Tower的研究,该应用在谷歌Play商店美国区下载排行榜中位居榜首。Sensor Tower数据显示,DeepSeek在发布的前18天内累计下载量达1600万次。 2、DeepSeek是搅动全球模型市场的一条鲶鱼,带来性能、价格、开源三重冲击。
➢性能比肩国际顶尖模型:DeepSeek R1在数学、代码、自然语言推理等任务上的性能可比肩OpenAI o1模型正式版。在AIME 2024数学基准测试中,DeepSeek R1得分率为79.8%,OpenAI o1的得分率为79.2%;在MATH-500基准测试中,DeepSeek R1得分率为97.3%,OpenAI o1的得分率为96.4%。 ➢低成本颠覆市场格局:DeepSeek V3整个训练过程仅用了不到280万个GPU小时,相比之下,Llama 3 405B的训练时长是3080万GPU小时。DeepSeek-V3的训练成本仅为约557.6万美元,而GPT-4等模型的训练成本则高达数亿美元。DeepSeek API服务定价远低于OpenAI,以输出为例,每百万输出tokens 16元(约2.2美元),GPT - o1每百万输出tokens 60美元。 ➢践行开源理念:DeepSeek-V3和推理模型DeepSeek-R1均开源,R1同步开源了其模型权重,并允许用户利用模型输出,通过模型蒸馏等方式训练其他模型。Meta首席科学家杨立昆(Yann Lecun)对DeepSeek评论“开源模型正在超越专有模型”。 3、ToB端应用、AI端侧应用将最受益于大模型的开源趋势、成本降低、迭代加速。 春节期间,华为云、微软、英伟达、AWS等厂商均已上线DeepSeek的模型服务。大模型是应用软件的基础设施之一,随着基础设施的能力提升和成本下降,我们将看到应用侧的百花齐放。除了DeepSeek,豆包、Qwen、Kimi等近2月都在快速升级迭代,月活提升,成本降低。我们认为,首先现有的B端应用将最先迎来AI Agent,B端应用有成熟的数据、场景,例如客服、营销类场景会较快布局活跃有效的智能代理服务。其次,随着低参数模型性能翻倍,将更适用于追求低能耗的端侧AI创新产品。 报告全文
1版本有序落地,Deepseek-R1性能比肩 OpenAI o1 正式版
➢模型厚积薄发,技术能力不断突破。DeepSeek(中文名为深度求索)成立于2023年,是一家位于杭州的人工智能公司,为量化巨头幻方量化的子公司。公司自成立以来就不断研发迭代大模型,幻方目前拥有1万枚英伟达A100芯片,2023年4月幻方宣布成立新组织,集中资源和力量,探索AGI(通用人工智能)的本质,在一年多时间里进展迅速。 ➢DeepSeek 的产品体系不断丰富,每个模型都在不同的领域和任务中展现出了独特的优势和性能特点。随着时间的推移,DeepSeek 在不断优化模型性能的同时,也在推动着人工智能技术的发展和应用。 ➢从版本迭代来看,公司历经一年已然迭代多个版本,目前模型能力可比肩OpenAI o1-mini,从下载量来看,根据AI产品榜数据显示,DeepSeek成为全球增速最快AI应用,上线20天日活突破2000万。 2 DeepSeek产品技术特点
➢DeepSeek采用模型蒸馏技术,极大提升模型推理能力。DeepSeek官方技术文档显示,研究人员使用DeepSeek模型遴选了80万个样本,并且基于DeepSeek-R1模型的输出对阿里Qwen和Meta的Llama开源大模型进行微调。评测结果显示,基于DeepSeek-R1模型蒸馏的32B和70B模型在多项能力上可对标OpenAI o1-mini的效果。DeepSeek研究结果表明,蒸馏方法可以显著增强小模型的推理能力。 ➢DeepSeek采用蒸馏技术得到的模型效果优于同等条件下使用强化学习(RL)的效果。技术文档显示,DeepSeek-R1-Zero-Qwen-32B模型是研究人员在Qwen-32B-Base模型基础上使用数学、代码、STEM数据进行超过10,000步的RL训练得到,其各项测评结果均差于DeepSeek-R1模型通过蒸馏得到的DeepSeek-R1-Distill-Qwen-32B模型。考虑RL方法需要大量的计算资源,蒸馏方法在性能和性价比方面均呈现出显著的优势。 ➢Janus-Pro是DeepSeek发布的一款统一多模态理解与生成的创新框架,通过解耦视觉编码的方式,极大提升了模型在不同任务中的适配性与性能。其中,Janus-Pro的SigLIP编码器专门负责理解图像,能提取图像的语义特征,并关注图像的整体含义和场景关系;而VQ tokenizer编码器,专门用于创作,将图像转换为离散的token序列,这样架构创新使得Janus-Pro在7B参数规模下,仅用32个节点、256张A100和14天的时间就完成训练并取得出色性能表现。 3 英伟达、微软等巨头携手 DeepSeek,推动 AI 落地革新 3.1各科技巨头上线DeepSeek,提供开发和推理服务 国内外芯片厂商和云服务厂商迅速响应,纷纷接入DeepSeek模型,在海外,以英伟达、微软、亚马逊为首的科技巨头率先采用DeepSeek,在国内,腾讯云和华为云已经上线DeepSeek相关服务。
➢英伟达:2025 年 1 月 31 日,英伟达(NVIDIA)宣布,NVIDIA NIM 已支持使用 DeepSeek - R1。英伟达官网同日发文指出,为助力开发者安全试验这些功能并构建专属代理,DeepSeek - R1 模型已作为 NVIDIA NIM 微服务预览版上线。
➢微软:2025 年 1 月 30 日,微软宣布已将 DeepSeek - R1 正式纳入 Azure AI Foundry,成为该企业级 AI 服务平台的一部分。微软强调,DeepSeek - R1 模型已通过 “严格的红队测试与安全评估”,并历经 “模型行为自动化检测与广泛的安全审查” 以降低潜在风险。后续,微软还会持续评估该模型,或进行调整优化以提升其准确度和审查机制。 ➢亚马逊:2025 年 1 月 31 日,亚马逊表示 DeepSeek - R1 模型已可在 Amazon Web Services 上使用,这一合作彰显了 DeepSeek 模型在云计算场景中的价值,有助于亚马逊为用户提供更具创新性和高效性的 AI 技术,提升用户在电商、数据分析等领域的体验,推动业务发展。 ➢腾讯云:2025 年 2 月 2 日,腾讯云宣布将 DeepSeek-R1 大模型一键部署至其 HAI 平台,开发者仅需 3 分钟即可完成接入。这一举措降低了开发者使用 DeepSeek-R1 模型的门槛,使得更多基于该模型的创新应用能够快速开发和部署。借助腾讯云 HAI 平台的强大算力和丰富的生态资源,DeepSeek-R1 模型有望在内容创作、智能客服、数据分析等多个领域发挥更大的作用,为腾讯云的用户提供更加智能化的服务。 华为云:2025 年 2 月 1 日,硅基流动和华为云团队联合首发并上线基于华为云昇腾云服务的 DeepSeekR1/V3 推理服务。基于华为云昇腾云服务强大的算力支持,此次合作推出的推理服务能够充分发挥 DeepSeekR1/V3 模型的优势,为科研、医疗、工业制造等多个行业提供高效、精准的 AI 推理能力。 3.2国产大模型推理能力提升,加速在应用端落地 ➢DeepSeek最新版模型展现出来的优异能力,表明国内大模型推理能力提升到一个新的阶段,大模型在各领域的应用有望加速加速落地。我们认为,DeepSeek给AI研究和企业端应用都将带来革新。 ➢在AI研究与学术领域:DeepSeek AI推动大规模语言模型的进化,为未来的AI研究提供了新方向;提升AI可解释性,使开发者更容易理解模型的决策逻辑;加速自然语言处理(NLP)任务的突破,如文本生成、情感分析、机器翻译等。 ➢在企业应用端,我们认为:首先现有的B端应用将最先迎来AI Agent,B端应用有成熟的数据、场景,例如客服、营销类场景会较快布局活跃有效的智能代理服务。其次,随着低参数模型性能翻倍,将更适用于追求低能耗的端侧AI创新产品。 以秘塔 AI 搜索为例,在融合DeepSeek-R1后,实现了 “国产最强推理 + 全网实时搜索 + 高质量知识库” 的结合,在多个方面利用 DeepSeek 技术提升用户体验: ➢处理复杂问题:借助 DeepSeek-R1 强大的复杂推理能力,结合自身的联网检索和海量知识库 / 论文数据,处理复杂查询。在预测《哪吒 2》票房成绩时,能结合海量搜索材料,考虑多个变量因素,确定基准数据和关键影响因素,构建数学模型进行预测 ,还能实时联网获取最新票房及各方预测结果。➢提升专业知识查询能力:在查询专业知识时,如 OpenAI 模型进展相关问题,秘塔 AI 搜索可利用 DeepSeek 的推理能力深入分析资料。它能准确找出 2024 年以来 OpenAI 发布的模型及其技术突破,并总结出推理能力、多模态交互、效率优化、视频生成技术等四大技术突破方向,还提及市场竞争态势等信息,且提供具体引用细节。 ➢优化搜索结果质量:对接 DeepSeek-R1 的推理能力后,秘塔 AI 搜索可以更准确地理解用户查询意图,处理多条件筛选、语义模糊等复杂查询,返回更快速、相关、精准的信息结果。同时,通过分析信息来源和内容逻辑性,过滤谣言等虚假信息,增强搜索结果的真实性和可靠性。 ➢助力深度知识挖掘:让 DeepSeek-R1 拥有 AI 联网搜索及背后的高质量索引库,能够实时查询最新资料,全网搜罗、分析各种论文并形成思维导图汇总,满足用户从查询一项研究 / 技术的最新进展到纵观一个学科技术发展历程等多样需求。 4 相关标的 ➢AI应用:金山办公、科大讯飞、焦点科技、彩讯股份、泛微网络、鼎捷数智、汉得信息、致远互联等。港股:迈富时、金蝶国际、明源云等 ➢AI端侧:中科创达、虹软科技、中兴通讯、润欣科技、乐鑫科技、兆易创新、移远通信、恒玄科技; 赞(29) | 评论 (19) 02月07日 08:36 来自网站 举报