结 构:2u机架式
g p u: 标配8片 nvidia tesla a100 gpu卡
处 理 器 :amd epyc 7742,64核,128线程(标配两颗,最大支持2颗)
内 存:1tb ddr4-3200mhz ecc reg
存储设备:1个960gb 2.5寸ssd,1个2tb 2.5寸sata企业级
网 络:双万兆网络接口
电源性能:2000w 冗余2 2电源
正昱a822 gpu服务器采用第二代amd epyc处理器,专门为现代数据中心工作负载而设计,为客户提供了一个理想的功能组合,不但解锁了性能,还重新定义了虚拟化、云计算、高性能计算和企业级应用的经济性。
对于企业数据中心,第二代amd epyc处理器比同类产品带来了高达83%的java应用程序性能提升 ,高达43%的sap sd 2 tier性能 提升,并创下了hadoop实时分析性能的世界记录 。
对于现代云计算和虚拟化工作环境,第二代amd epyc处理器提供了创世界记录的虚拟化 性能,重新定义了数据中心的经济性。
对于高性能计算,第二代amd epyc处理器提供了一个无与伦比的完美组合,包括:创纪录的浮点性能 ,同类产品最高的dram内存 和i/o带宽,以实现超强的hpc负载;高达2倍的计算流体力学性能 ,以及最高可提升72%的结构分析性能 。
其他功能方面,第二代amd epyc(霄龙)处理器突出多领域应用,涉及互联网行业的大数据分析、内存数据库、数据中心应用等,还包括石油和天然气勘探等领域,泛用性非常出色。
正昱 a822服务器搭载千兆字节服务器管理(gsm)是千兆字节的专有多服务器远程管理软件平台,可从每一个千兆字节服务器产品页面免费下载。gsm与ipmi或redfish(restfulapi)连接接口兼容,并包含以下子程序:
gsm服务器一个易于使用的基于浏览器的图形用户界面的软件程序,通过每个服务器节点的bmc实现对多千兆字节服务器的全局远程监视和管理。
gsm cli,一个命令行接口程序,可以通过每个服务器节点的bmc对多个千兆字节服务器进行全局远程监视和管理。
gsm代理*,一个安装在每个千兆字节服务器节点上的软件程序,它检索额外的节点信息(cpu/mem/hdd/pci/…)并将其传递给bmc。然后,gsm服务器或gsm cli可以使用这些信息。
gsm代理目前与avoent mergepoint ipmi 2.0 bmc固件兼容,但尚未与megarac sp-x bmc固件兼容。
gsm手机,这是一个远程服务器管理移动应用程序,可用于android和ios。
gsm插件,这是一个插件,允许用户管理和监视vmware的vcenter中的千兆字节服务器节点。 直观、信息丰富的用户界面
从gsm服务器仪表板开始,用户可以清楚地了解it环境中每个节点的状态,包括: 节点连接状态(系统在线/脱机)
节点硬件传感器状态(用于检测硬件异常)。传感器测量电压,风扇速度和温度。
节点使用率状态(允许在需要时及时分配更多资源),包括: 功耗、磁盘/raid使用信息、内存利用率、cpu使用率、网卡/pci信息
用户还可以执行各种管理功能,包括:
节点远程访问、电源开启/关闭/复位、启动ikvm、重新启动bmc/bmc帐户配置、网络配置、ipv 4/ipv 6设置、警报管理、snmp陷阱设置、平台事件过滤器、通过电子邮件转发警报、bmc/bios/cpld更新、功耗限值设定、集团管理、为bmc/bios更新或管理耗电量设置创建一组节点
正昱a822 gpu服务器标配1颗nvidia tesla a100 pcie gpu卡,nvidia tesla a100 是当今市场上为加速人工智能、高性能计算 和图形的数据中心 gpu 中的精尖之作。tesla a100 采用全新一代 nvidia ampere 架构,助力数据科学家、研究人员和工程师解决以前无法应对的难题,tesla a100拥有9.7 teraflops双精度、19.5 teraflops单精度 ,互联宽带nvidia nvlink 600 gb/s、pcie gen4 64 gb/s,40g hbm2高速内存,1555gb/s显存带宽。 nvidia a100 tensor core gpu 可针对 ai、数据分析和高性能计算 (hpc),在各种规模上实现出色的加速,应对极其严峻的计算挑战。作为 nvidia 数据中心平台的引擎,a100 可以高效扩展,系统中可以集成数千个 a100 gpu,也可以利用 nvidia 多实例 gpu (mig) 技术将每个 a100 划分割为七个独立的 gpu 实例,以加速各种规模的工作负载。第三代 tensor core 技术为各种工作负载的更多精度水平提供加速支持,缩短获取洞见以及产品上市时间。
nvidia a100 的第三代 tensor core 借助 tensor 浮点运算 (tf32) 精度,可提供比上一代高 10 倍之多的性能,并且无需更改代码,更能通过自动混合精度将性能进一步提升两倍。与第三代 nvidia® nvlink®、nvidia nvswitch™、pcie 4.0、mellanox 和 magnum io 软件 sdk 结合使用时,系统中可以集成数千个 a100 gpu。这意味着,bert 等大型 ai 模型只需在 a100 构成的集群上进行训练几十分钟,从而提供出色的性能和可扩展性。