安擎官网网址:http://www.enginetech.cn
天津总部
南京公司
地址:南京市雨花台区宁双路19号云密城D栋6楼
北京公司
地址:北京市海淀区马连洼北路8号万霖科技大厦A座四层401
上海公司
地址:上海闵行区莲花路2080弄50号E幢9楼909室
深圳公司
地址:深圳市福田区深南大道世纪豪庭大厦22C
杭州公司
地址:浙江省杭州市滨江区秋溢路228号(三花江虹国际创意园)3B楼703室
武汉公司
地址:湖北省武汉市东湖新技术开发区关山大道光谷软件园4期E1栋12楼1209室
成都公司
地址:成都市人民南路四段1号时代数码广场20层B10
西安公司
地址:西安市雁塔路中段58号百瑞广场A区10楼35/36
天津安擎全面介绍
一、天津安擎公司概况
安擎(天津)计算机有限公司于 2017 年 05 月 25 日正式成立,法定代表人是俞跃渊。公司经营范围广泛,涵盖了微型计算机、服务器制造与销售,信息技术服务,计算机软件及辅助设备销售,软件和信息技术服务业,互联网信息服务,办公设备、办公用品、家用电器、电子产品、消防器材、电线电缆销售,以及货物及技术进出口等业务。
公司以 “专注计算领域,致力于成为中国 AI 服务器及解决方案提供商” 作为愿景,在发展历程中不断深耕。凭借自身的努力和技术实力,荣获了多项荣誉,如国家高新企业、天津市高新企业、天津制造企业 100 强、天津市战略性新兴产业领军企业 ,还被评为*** “专精特新” 小巨人企业、天津市制造业单项***、天津市科技领军企业、天津市企业技术中心、天津市信创企业等,这些荣誉见证了安擎在行业内的***地位和强大实力。
在产品布局方面,安擎展现出了全面且丰富的产品线。其服务器产品涵盖 AI 服务器、全国产服务器、通用服务器、存储服务器、高密度服务器等,广泛涉及人工智能、云计算、互联网、安防、政府、金融、交通、教育、医疗等多个行业及领域,满足了不同客户群体在不同场景下的多样化需求。
二、AI 服务器在公司业务中的战略地位
在当今数字化和智能化飞速发展的时代,AI 服务器作为支撑人工智能应用的关键基础设施,其重要性不言而喻。安擎深刻认识到这一点,将 AI 服务器视为公司业务发展的核心战略方向之一。AI 服务器是安擎实现 “打造智能算力,赋能数字经济” 这一目标的关键载体。通过为 AI 应用提供强大的算力支撑,安擎助力传统产业实现智能化转型,在推动行业进步和产业升级的道路上发挥着重要作用。从公司的研发投入、产品布局以及市场推广等方面,都能清晰地看到 AI 服务器占据着举足轻重的战略地位。安擎持续加大在 AI 服务器领域的研发资源投入,不断推出创新产品和解决方案,以满足市场日益增长的需求,巩固其在 AI 服务器市场的竞争力。
三、AI 服务器产品线概述
安擎的 AI 服务器产品线丰富多样,能够满足不同应用场景和客户需求。其家族产品线覆盖了图像视频、语音识别、金融分析、大数据、虚拟化、高性能计算、智能通信、安防等典型 AI 应用场景,全面兼顾性能、扩展性和易维护性,以丰富灵活的产品配置,全方位满足各行业多样性需求,产品具备超大规模、超高带宽以及***稳定型、易维护的特点,为用户构建可信赖的人工智能算力网络。接下来,我们将详细介绍几款具有代表性的 AI 服务器产品。
(一)EG8421G4 高性能 AI 服务器
产品定位与目标应用场景
EG8421G4 是安擎针对智能计算推出的高性能 AI 服务器,主要面向云计算、大数据、深度学习等应用场景。在云计算领域,它为云服务提供商提供强大的计算能力,支持大规模的虚拟机部署和云计算服务的高效运行;在大数据处理方面,能够快速处理海量的数据,为数据分析和挖掘提供坚实的算力基础;对于深度学习场景,无论是训练复杂的神经网络模型,还是进行推理应用,EG8421G4 都能发挥出色的性能。
硬件配置与性能参数
处理器:该服务器可支持 2 颗第四代 / 第五代英特尔 ® 至强 ® 可扩展处理器(***高支持 385W TDP),这些处理器具备强大的计算核心和高速的处理能力,能够快速处理各种复杂的计算任务,为 AI 应用提供强劲的动力。
内存:支持 32 条 DDR5 4800 内存,高频率的内存配置使得服务器在数据读写速度上有了***大的提升,能够快速响应 AI 算法对数据的大量读取和存储需求,减少数据处理的延迟。
存储:支持 24 个硬盘插槽,提供了丰富的存储扩展空间,可以满足不同规模数据存储的需求。无论是存储训练数据、模型参数还是运行过程中产生的中间数据,都能轻松应对。
扩展槽位:支持多达 13 个 PCle 5.0 标准槽位和 1 个 OCP 3.0 槽位,在 4U 空间内***高支持多达 10 张双宽 GPU 卡。PCle 5.0 标准槽位提供了更高的带宽,能够快速传输数据,提升 GPU 与其他组件之间的通信效率;而大量的 GPU 卡支持能力,使得服务器具备强大的并行计算能力,能够加速深度学习模型的训练和推理过程。
独特设计与优势
高扩展和高可用性:丰富的槽位和硬件支持选项,使得用户可以根据自身业务的发展和变化,灵活选配硬件组件,实现服务器性能的逐步升级和扩展。同时,服务器在设计上充分考虑了可靠性和可用性,采用了冗余电源、热插拔硬盘等技术,确保在长时间运行过程中系统的稳定性,减少因硬件故障导致的业务中断。
满足多数场景灵活选配需求:由于其硬件配置的灵活性和丰富的扩展选项,EG8421G4 能够适应多种不同的应用场景和业务需求。无论是小型企业的深度学习项目,还是大型数据中心的云计算服务,都能通过合理的配置满足实际需求,为用户提供个性化的解决方案。
(二)基于昇腾的 AI 服务器(EG940a – G30)
基于昇腾芯片的技术特点
EG940a – G30 是基于昇腾 910 + 鲲鹏 920 处理器的 AI 训练服务器,昇腾 910 芯片具有强大的算力,在深度学习计算方面表现出色。它采用了先进的芯片架构和制程工艺,能够提供高效的计算性能,特别是在处理大规模矩阵运算和复杂神经网络模型时,展现出了***的计算能力。与鲲鹏 920 处理器协同工作,实现了计算资源的高效整合和利用,为 AI 训练任务提供了强大的算力支持。
性能表现与适用行业领域
***算力密度:在 4U 高度内可提供 2.2 – 2.5pflopsfp16/0.6 ~ 0.65pflopsfp32 ***算力,单位算力业界***。这种超高的算力密度使得服务器在有限的空间内能够提供强大的计算能力,适用于对算力要求***高的深度学习模型开发和训练场景。
超高能效:提供 2.5pflops/5.6kw 超高能效比;提供钛金电源模块,50% 负载下电源模块效率高达 96%;支持 pid 智能调速,节能降耗,全方面优化的系统散热设计,高效节能系统散热风扇,降低系统散热能耗。在满足高性能计算需求的同时,注重能源效率的提升,降低了运营成本和能源消耗,符合绿色数据中心的发展理念。
高速网络带宽:8*200grocev2 高速接口,芯片间跨服务器互联时延缩短 10 ~ 70%。高速的网络带宽确保了数据在服务器内部以及服务器之间的快速传输,减少了数据通信的延迟,提高了分布式计算和集群计算的效率,适用于智慧城市、智慧医疗、天文探索、石油勘探等需要大算力的行业领域。在智慧城市建设中,需要处理海量的城市数据,包括交通监控数据、环境监测数据等,EG940a – G30 的高性能能够快速分析和处理这些数据,为城市管理和决策提供支持;在智慧医疗领域,用于医学影像分析、疾病预测等 AI 应用,帮助医生更准确地诊断疾病;在天文探索和石油勘探中,处理大量的观测数据和勘探数据,加速科学研究和资源开发的进程。
与上一代产品对比的升级之处
相较于上一代产品,EG940 – G30 主要在算力、能效比及带宽方面有所提升。其中,算力由原先的 1.76 – 2.24pflopsfp16 增至 2.2 – 2.5pflopsfp16,并且***一代还可提供 0.6 ~ 0.65pflops 的单精度算力,算力与精度的提升大程度地提高了业务处理速度与准确度;新一代可提供 2.5pflops/5.2kw 的超高能效比,相较于上一代可节能 12%,在更加环保的同时也降低了运营成本;高速网络带宽由原先的 100gb 增至 200gbrocev2,8 路 npu 通过 hccsfullmesh 互联,双向互联带宽达 392gb/s,有效地提升了数据传输与处理效率。这些升级使得 EG940a – G30 在性能上有了显著的提升,能够更好地满足不断发展的 AI 应用需求。
(三)边缘 AI 服务器(EG900a – G30)
面向边缘应用的设计理念
EG900a – G30 是面向广泛边缘应用场景的轻量边缘设备,其设计理念围绕着边缘应用的特点展开。边缘应用通常需要设备具备体积小、易于部署、环境适应性强等特点,同时还需要具备一定的计算能力和存储能力。EG900a – G30 在设计时充分考虑了这些需求,旨在为边缘应用提供高效、可靠的计算支持。
硬件规格与适应复杂环境的能力
体积小与***计算性能:它具有机顶盒大小的体积,却支持 20 路视频分析能力(*** 40 路 1080p 解码,20topsint8 算力),在有限的空间内集成了强大的计算核心,能够在边缘端对视频数据进行实时分析和处理,满足如安防监控、智能交通等场景对视频分析的需求。
大容量存储:支持 16tb 存储容量,20 路 1080p@4mb 码流视频缓存 7 天,10 路 1080p@4mb 码流视频缓存 30 天。能够存储大量的边缘数据,即使在网络中断或不稳定的情况下,也能***数据的完整性和安全性,为后续的数据处理和分析提供保障。
配置灵活与环境适应性强:支持温度范围宽,能够在不同的温度环境下稳定运行;同时,它还具备良好的抗干扰能力,能够适应如社区、园区、***、超市等复杂环境区域的电磁干扰、灰尘、湿度等不利因素。此外,系统内所有固件均有双镜像备份,故障时可自动进行主备区切换;支持软件、硬件故障检测与告警,确保设备在运行过程中的可靠性和稳定性。
边云协同功能与应用价值
支持选配 4g 或 5g 模块,将本地信息无线回传至云端;用户可自定义信息本地缓存或是上云,且所有上云信息均可支持加密,***限度保护用户隐私。边云协同功能使得边缘设备能够与云端服务器进行高效的数据交互和协同工作。在实际应用中,边缘设备可以在本地对数据进行初步的处理和分析,将关键信息上传至云端进行进一步的深度分析和决策,同时接收云端下发的指令和模型更新,实现设备的智能化升级。这种边云协同的模式既减轻了云端的计算压力,又提高了数据处理的实时性和效率,为边缘应用带来了更大的价值。
(四)基于海光处理器的 AI 服务器(EG921H – G30)
基于海光处理器的特性与优势
EG921H – G30 是新一代面向边缘计算应用领域而生,基于海光系列处理器开发的一款高性能 AI 服务器。海光处理器采用了先进的架构和技术,具备强大的计算能力和良好的兼容性。它在单核性能和多核并行处理能力上表现出色,能够为 AI 服务器提供稳定可靠的计算支持。同时,海光处理器在国内信创产业中具有重要地位,基于海光处理器的 EG921H – G30 有助于推动国内信创产业的发展,实现关键技术的自主可控。
在边缘计算与 AI 推理场景的应用优势
借助于加速卡,EG921H – G30 在计算性能、工作负载需求方面提供强大的计算能力,从边缘到数据中心都提供了较好的适配性,服务于边缘计算、AI 推理等计算场景。在边缘计算场景中,它能够快速处理边缘设备产生的数据,如工业传感器数据、智能家居设备数据等,为边缘智能应用提供实时的决策支持;在 AI 推理场景中,对于图像识别、语音识别等应用,能够快速准确地进行推理计算,输出推理结果。其 2U 机架式的设计,在精致的空间内释放较高的计算性能,是一款高性价比、多场景适用的 AI 服务器,能够满足不同用户在边缘计算和 AI 推理领域的需求。
四、AI 服务器的技术优势
(一)自主研发能力
研发体系与团队
安擎具备完整的服务器系统研发和测试验证能力,拥有一支由硬件工程师、软件工程师、固件工程师、散热工程师等组成的专业研发团队。这些专业人才在各自领域拥有丰富的经验和深厚的技术积累,他们密切协作,从系统硬件设计、PCB 设计、固件设计、电源设计、结构散热设计、包装及外观设计等各个环节,进行全方位的研发创新。同时,安擎还建立了完善的研发管理体系,从需求分析、设计开发、测试验证到产品发布,每个阶段都有严格的流程和标准,确保研发工作的高效有序进行。
研发成果与专利技术
通过持续的研发投入和创新,安擎已获得各项专利 70 余项。这些专利技术涵盖了服务器设计的多个方面,如高效散热技术、智能电源管理技术、高速数据传输技术等。例如,在散热技术方面,安擎研发的全方面优化的系统散热设计,采用高效节能系统散热风扇,结合智能调速技术,能够根据服务器的工作负载和温度情况,自动调节风扇转速,在***良好散热效果的同时,降低了系统散热能耗;在智能电源管理技术方面,通过对电源模块的优化设计和智能控制,实现了电源效率的提升,降低了能源消耗。这些专利技术不仅提升了安擎 AI 服务器的性能和竞争力,也为行业的技术发展做出了贡献。
(二)性能优化技术
硬件性能优化策略
在硬件方面,安擎 AI 服务器采用了高性能的处理器、内存、存储和 GPU 等组件,并通过优化硬件之间的协同工作,提升整体性能。例如,在处理器的选择上,根据不同的应用场景和性能需求,选用英特尔 ® 至强 ® 可扩展处理器、昇腾处理器、鲲鹏处理器或海光处理器等,并对处理器的频率、缓存等参数进行优化设置,充分发挥处理器的性能***。在内存方面,采用高频、大容量的 DDR5 内存,并通过内存交错技术和 ECC 校验技术,提高内存的读写速度和数据的准确性;在存储方面,选用高速的固态硬盘(SSD),并采用 RAID 技术提高存储的可靠性和读写性能;在 GPU 方面,优化 GPU 与主板之间的接口带宽和通信协议,提高 GPU 的利用率和计算效率。
软件算法与固件优化
除了硬件性能优化,安擎还在软件算法和固件方面进行了深入优化。在软件算法方面,针对不同的 AI 应用场景,开发了专门的优化算法,如针对深度学习模型训练的加速算法、针对图像识别的特征提取优化算法等,这些算法能够提高 AI 应用的运行效率和准确性。在固件方面,对 BIOS(基本输入输出系统)和 BMC(基板管理控制器)等固件进行优化,实现了对硬件资源的更高效管理和监控。例如,通过优化 BIOS 的启动流程,缩短了服务器的开机时间;通过 BMC 实现了对服务器硬件状态的实时监控和远程管理,提高了服务器的运维效率。
(三)散热与节能技术
高效散热设计方案
安擎 AI 服务器采用了全方面优化的系统散热设计,以确保在高负载运行情况下服务器的稳定性能。服务器内部采用了合理的风道设计,通过精准的气流引导,使冷空气能够均匀地流过各个发热组件,带走热量。同时,配备了高效节能系统散热风扇,这些风扇具有大风量、低噪音的特点,能够提供足够的散热风量。此外,还采用了热管散热技术,将热量快速传导到散热鳍片上,通过空气对流散热。对于一些高性能的 GPU 卡等发热量大的组件,还采用了液冷散热技术,进一步提高散热效率,确保组件在低温环境下稳定运行。
节能技术与能源效率提升
在节能方面,安擎 AI 服务器采用了多种节能技术。首先,采用了智能电源管理技术,服务器能够根据工作负载的变化自动调整电源输出,降低能源消耗。例如,在服务器空闲时,自动降低处理器和其他组件的工作频率和电压,进入节能模式;在负载增加时,快速恢复到正常工作状态。其次,采用了高效的电源模块,如钛金电源模块,在 50% 负载下电源模块效率高达 96%,减少了电源转换过程中的能量损耗。此外,还通过优化服务器的硬件架构和软件算法,降低了服务器的整体功耗,提高了能源利用效率,符合绿色数据中心的发展要求。
(四)可靠性与稳定性保障技术
硬件冗余设计
为了确保服务器的可靠性和稳定性,安擎 AI 服务器在硬件设计上采用了冗余技术。例如,采用冗余电源设计,配备多个电源模块,当其中一个电源出现故障时,其他电源能够自动接管工作,确保服务器的正常运行;采用热插拔硬盘设计,用户可以在服务器运行过程中更换故障硬盘,而不影响服务器的正常工作,提高了数据的安全性和系统的可用性;在内存方面,采用内存镜像和内存热备技术,当某条内存出现故障时,系统能够自动切换到备用内存,***系统的稳定运行。
如何获得真满血版 Deepseek R1
安擎 安擎
2025年02月08日 14:13 北京
在人工智能技术飞速发展的今天,AI 大模型的计算需求正以***的速度增长。深度求索***发布的 Deepseek R1,作为一款能够与业界***强的 ChatGPT 正面抗衡的强大模型,对计算平台的高性能、稳定性和高效性提出了***高要求。为此,安擎计算机信息股份有限公司(以下简称“安擎”),凭借深厚的技术积累和行业强大的硬件研发实力,为客户提供了一系列高效能算力解决方案,确保 Deepseek R1 模型的流畅运行。
图片
本文将详细介绍 Deepseek R1 的算力需求、硬件选择及网络互联方案,帮助您在本地环境中快速部署运行真满血版 Deepseek R1,摆脱官方服务超载带来的困扰。
一、深度算力需求下的挑战与机遇
1.1 模型版本及应用场景
Deepseek R1 模型面向自然语言处理(NLP)、代码生成、内容理解、数据分析等多个应用场景,对服务器的计算能力、存储性能、数据吞吐量及稳定性均提出了***高要求。目前,该模型主要分为两大类别,共计八个版本:
· 满血原版:
o Deepseek-R1-Zero(671B)
o Deepseek-R1(671B)
· 蒸馏版:
o DeepSeek-R1-Distill-Qwen-1.5B
o DeepSeek-R1-Distill-Qwen-7B
o DeepSeek-R1-Distill-Llama-8B
o DeepSeek-R1-Distill-Qwen-14B
o DeepSeek-R1-Distill-Qwen-32B
o DeepSeek-R1-Distill-Llama-70B
需要特别说明的是,只有 Deepseek-R1(671B) 具备与 ChatGPT 正面抗衡、在大部分指标上实现超越的能力,而蒸馏版虽然经过 Deepseek 调优和参数蒸馏后性能有所提升,但仍无法与满血版媲美。因此,对于追求*** AI 能力的用户来说,如何在本地部署真满血版 Deepseek R1显得尤为关键。
1.2 本地部署的必要性
当前市场上不少第三方服务商宣称提供 Deepseek 相关服务,或发布本地化运行教程,但实际上多数基于蒸馏版模型,容易混淆视听。而在 Deepseek 官方服务因超载而频繁失去响应的背景下,借助安擎多年的服务器研发经验和灵活定制化服务,打造一套专为真满血 Deepseek R1 设计的高性能计算平台,成为了确保业务连续性与数据安全的理想选择。
二、安擎 AI 服务器:Deepseek R1 理想运行环境
为了满足 Deepseek R1 671B 模型在实际业务中的高并发、高效率和稳定运行需求,安擎为您量身定制了从硬件选型到互联网络方案的整体解决方案,下面详细介绍各项关键技术指标及设备选型。
2.1 需求理解与显存计算
Deepseek R1 为 671B 模型,单次激活专家参数量为 37B。该模型主要采用 FP8 训练,同时辅以 BF16 模式。根据以下公式计算模型运行所需显存:
MoE 模型运行所需显存 = 模型参数量 × 精度系数 + 激活参数量 × 精度系数 + 10%~20% 其他消耗
其中:
· 模型参数量:671
· 激活参数量:37
· FP8 精度系数:1
· BF16 精度系数:2
代入数据可得:
· ***小需求:671×1 + 37×1 + (671+37)×10% = 778.8G
· ***需求:671×2 + 37×2 + (671×2+37×2)×20% = 1699.2G
考虑到在 128K 上下文情况下可能超过***值,为确保运行可靠,我们以***需求 1699.2G 为参考,提供充足的显存余量。
2.2 算力卡选择方案
根据显存需求,系统需提供超过 1700G 缓存才能*** Deepseek R1 的稳定运行。针对不同硬件平台,安擎提供以下几种合理的算力卡组合方案:
Nvidia H20 141G HBM3e: 每卡 141G,两台共 16 卡,总显存 2256G
可适配机型:EG8628G4
图片
Nvidia L20/5880ADA: 每卡 48G,6 台共 48 卡,总显存 2304G
可适配机型:EG8421G4
图片
昇腾 910B3/910B4: 每卡 64G,4 台共 32 卡,总显存 2048G
可适配机型:EG940A-G30
图片
海光 K100AI: 每卡 64G,4 台共 32 卡,总显存 2048G
可适配机型:EG8828H4
2.3 互联网络方案
在多机多卡并行计算的环境下,高速网络互联是关键。针对不同算力卡平台,安擎提出了两种网络配置方案:
√ Hopper 系列算力卡(基于 HGX 技术):
每台服务器配备 8 个 400G 端口,整体端口需求低于 64 个。***使用 MQM9790 交换机,该设备拥有 64 个 400G 端口,并具备未来扩展能力,从而确保所有算力卡间实现 400G 的高速互联。
√ 基于 PCIe 架构的中端算力卡:
由于平台无法为每个算力卡单独配置高速网卡,同时卡的算力能力无法充分饱和 400G 带宽,每台服务器建议配置 2 个 200G IB 端口。此时,可选用 MQM8790 交换机,其配备 40 个 200G 端口,同样支持未来扩展,并确保所有卡间达到 400G 的多机互联带宽。
对于昇腾 910 系列和 K100AI 服务器,安擎会根据具体需求灵活配置***网络方案。
2.4 安擎的增值服务
基于上述硬件方案,安擎可为企业和机构提供一整套定制化服务,包括:
√ 设备供货与定制化: 根据客户需求精准匹配硬件配置;
√ 本地私有化部署: 在客户自有数据中心搭建专属 Deepseek R1 运行环境,确保数据安全;
√ 混合云/本地算力融合方案: 结合云计算与本地计算资源,实现成本与算力的***平衡;
√ 专用优化服务: 针对 Deepseek R1 的特定应用场景,提供软硬件深度优化,全面提升系统性能。
三、行业认可与未来展望
自成立以来,安擎始终坚持自主研发,在人工智能、互联网、云计算、安防、交通、金融、医疗等多个行业中取得了广泛应用。凭借 60 余项自主专利和强大的本土研发实力,安擎在中国 AI 服务器市场中占据了重要地位,特别是在交通、服务与公共事业等领域处于市场***地位(IDC 数据)。
面向未来,安擎将继续深耕人工智能领域,为客户提供更加高效、灵活和安全的 AI 算力解决方案。通过推动 Deepseek R1 等大模型的广泛落地应用,安擎致力于为中国乃至全球的智能化转型提供坚实的计算力支撑。
安擎,您的 AI 计算力专家——为 Deepseek R1 赋能,助力 AI 创新加速!
***阅读
安擎算力荣膺上海市宝山区“2024年度工业突出贡献企业”
快讯 | 开门红!安擎入围中直机关2025年服务器框架协议采购项目
快讯 | 安擎全面入围浙江省预算单位服务器协议入围采购项目
快讯丨安擎入围***国家机关通用服务器框架协议采购项目