高速传输

光模块的发展以及在Hyperscale用户中的演进

发布时间:2018-09-17 点击量:

光模块的发展以及在Hyperscale用户中的演进(转载)

 

 

小编今 天来介绍下用于连接MTP和LC接口的光模块(optical transceiver)的历史以及演进。

 

 
 
 

光模块发展历史

 
 
 

 

在正式 展开光模块发展历史之前,我们先 来聊聊促进光模块和数据中心发展的原始驱动力。

 

随着通信技术,基于互 联网应用的不断发展,人们对 于计算能力和数据存储的要求,渐渐地从个人主机往“云”上迁移,而企业 原有的一些内部计算存储需求,也随着 云计算壮大带来的成本和管理优势,迁移上了“云”。个人和 企业对于计算和存储能力的需求,正是促 进数据中心在最近数十年大发展的驱动力。而所谓的“云”对应的 基础设施正是数据中心。

 

数据中心里有什么?数据中 心里面其实就是码放整齐的服务器和各类交换机/路由器。而服务 器和交换机上插满了各种光模块,以用于 数据的传输和交换。

 

 

如下图所示,数据中 心内部的数据交换量占了70%以上的比例,而不同 的数据中心之间的DCI(Data Center Interconnection)数据通信仅为13%左右,这也就 可以理解为什么数据中心业务大发展阶段,与之对 应的光模块发展如此的迅速。

 

 

讲到这儿,我们开 始介绍下光模块(optical transceiver)的历史。

 

从原始 社会通信基本靠吼,到飞鸽传书,再到电话电报,直到当今的光网络,通信技 术一直不断往前发展。但是完 成信息传递的三个基本要素,即信源、信通道和信宿,也就是信息的发送、传递和接受,这三点缺一不可;所有技 术的发展都是围绕着这三点来实现的。

 

当通信 进入到应用现代科技阶段时,先是以电为研究对象,从电的特性出发,改善通信的质量。从早期的固定电话,到2G、3G无线通 信基本都是基于电的通信方式。大家最 近这些年常常听到的“光进铜退”,指的就 是由于电缆这种介质本身特性无法实现高速率信号的长距离传输,从而限 制了它的进一步发展。用电传输信号,随着传 输距离增加频率越高损耗越大,信号变形越厉害,从而引 起了接收机的判断错误,导致通信失败。为了克服这个限制,光模块 就是把电信号在发射端转成光信号,就是我们说的Transmitter, 即发送器,它负责 将设备产生的电信号转换成光信号发出;而在接 收端再把收到的光信号转换成电信号,就是Receiver,也叫做接收器。如果把Transmitter和Receiver做在一个封装模块里,就成了Transceiver,既可以 发送也可以接收,光模块(optical transceiver)就是这样形成。

 

早期的 光模块从一开始155Mb/s(一秒钟传输155万个比特),到622Mb/s,1.25Gb/s,2.5Gb/s一直到10Gb/s,利用的 是时分复用的技术,也就是TDM(Time Division Multiplexing),在单位 时间内传输更多的比特数。但一个 光模块的传输速率再快,也不如 几个同时一起传输,那么就 慢慢有了并行传输,称之为parallel,4个并行的叫QSFP, 12个并行的叫CXP。

 

对于短距离传输来说,并行传 输多用的一些光纤对于材料和建设成本并无多大区别。但对于 长距离通信来说,铺设一 根光缆的建设成本远远大于材料本身,长距离传输时,TDM时分复 用会受限于电子器件开关频率,那么用 一根光纤来传输多个波长的技术就随之诞生,我们称之为WDM(Wavelength Division Multiplexing), WDM又分为两种,20nm间隔的CWDM(Corse DWM, 粗波分复用)和0.8nm间隔的DWDM(Dense WDM密集波分复用)。

 

 
 
 

光模块的封装形式

 
 
 

 

接下来,我们再 来了解下光模块的封装形式(Package Form),这个是最首要的Transceiver的分类方式,也是产 品线划分的依据。

 

 

在光模 块行业成型之前,早期由 各大电信设备制造商各自开发,接口五花八门,互不通用。这样导 致光收发模块大家用起来都不方便,于是大 家一起制定规则,就有了MSA(Multi Source Agreement), 多源协议。有了MSA标准之后,独立专注于开发Transceiver的公司开始崭露头角,随之行业兴起。

 

篇幅原因,无法详 细解释所有光模块。那么我 就来看看常见的几种,例如SFP/XFP/SFP。

 

随着工 艺水平的不断提高,Transceiver尺寸越做越小,有了SFP(Small Form-Factor Pluggable)的Transceiver模块,也称为 小封装可插拔模块,支持热插拔,即插即用。SFP的速率越做越高,从1.25G, 2.5G, 4G, 6G,到了10Gb/s以后,原先的 封装大小就放不下那么多的元器件了,就定义了新的标准XFP。XFP指的是10Gb/s速率的可插拔光模块。技术一直在进步,到了2009年集成工艺的提升,终于可以把XFP塞进SFP,这种新的SFP的Transceiver称作 SPF+,即增强型SFP模块。SFP和SFP+尺寸大小,连接器定义,功能完全相同;为了区分,把支持8Gb/s以上的SFP称为SFP+。

 

 
 
 

Parallel并行光模块的演进

 
 
 

 

人们对 于带宽的需求不断增加,那么同 样对于数据中心内的Transceiver速率提 出了更高的要求,TDM光模块 的限制显现出来了。到了10Gb/s的时候,新的设计思路是把Transceiver做的更小,同时把几个Transceiver装在与 原来大小一样的封装里,Parallel的光模块由此诞生。如下图所示,QSFP+和SFP+封装的尺寸对比。

 

 

 

Parallel QSFP+光模块的兴起,并不意味着SFP+的退出。用户会 根据自己的需求以及产品的性价比来选择不同的光模块。因此,SFP+仍有其 存在的理由和市场;随着技术的不断提升,SFP+也推出了28Gb/s的产品。

 

谈到这儿,顺便提 一下光模块的光接口类型。对于传统的XFP/SFP+,有两个光接口,一收一发,使用的是LC类型的接口。对于Parallel模块,QSFP(4收4发)甚至CXP(12收12发),那么就 需要用到多发多收,即MPO(MPO是Multiple fiber push-on/push off)接口。康宁的 数据中心解决方案里使用了更高工艺标准的USCONEC MTP 接口,根据光模块接口类型,我们提供MTP8,MTP12, MTP 16和MTP24接头类型。

 

光模块 作为信号的信源和信宿,担当了 通信三要素中的亮点。与此同时,康宁提 供的数据中心产品方案则是信道,信道的 可靠性对通信起着至关重要的作用。关于如何选择LC和MTP接头的连接产品,可以参 考公众号之前发布的文章。

 

对于光模块而言,应用在 什么交换机上不重要,重要的 是根据距离选择合适的模块类型,以100G为例:

 

 

当然目前100G主流的 光模块应用仍然是小于100m QSFP SR4。大型的Hyperscale云服务 供应商在光模块选型上,更多的 会从产业成熟度、稳定供应、平滑升 级的几个方面去考虑并设计对应的架构。

 

 
 
 

Hyperscale客户对 于未来光模块的需求

 
 
 

 

目前Hyperscale超大型 数据中心的建设方主要是云服务提供商,例如亚马逊, 微软, 谷歌,阿里巴巴, 腾讯等。对于以 上云服务提供商的数据中心,单体数 据中心的机柜数量往往在1万以上,规模非常庞大。这些云 服务提供商对于各自数据中心物理和逻辑架构的设计各有千秋。上文中 提到的数据中心流量的覆盖,绝大部 分在数据中心内部,也就是 服务器和交换机之间。大量的 数据中心内部流量覆盖也对应了庞大的光模块需求数量。数据中 心作为高投资和高能耗的设备集群,对于建 设的要求始终是更高的投资回报率、更低的 能源消耗和使用率。那么对 应到光模块的要求,更多会 考虑整体成本以及更低的功耗。

 

以400G为例,中国的 阿里巴巴和腾讯均在公开场合公布了400G的建设计划,并预计在2020年会有试验的400G 网络,逐步铺开,并将根 据整体架构设计综合考虑光模块的选型。下图是目前400G光模块 的潜在产品和标准。我们可以看出,多模并 行和单模并行的光模块都是继续8芯的应用。康宁早在2015年就推出了EDGE8TM的数据中心连接方案,提供了 灵活的产品配置以满足400G的组网和架构需求。

 

 

再来展望一下hyperscale数据中 心基于业务和应用的前景。近几年我们常听到AI人工智能,BLOCK CHAIN区块链 和大数据等前沿技术,那么这 些技术对于数据中心有什么影响呢?就拿AI人工智能举例。早在2014年,谷歌公 司就在其中一个数据中心设施中部署了Deepmind AI(使用机 器学习和人工智能的应用程序)。其结果是,能够将 数据中心用于冷却的能源减少40%,这相当 于在考虑到电气损耗和其他非冷却效率之后,PUE(Power Usage Effectiveness一种评 估数据中心能源效率的指标)值减少了15%,这也产 生了该数据中心有史以来最低的PUE。基于这 些显著的成本节省,谷歌公 司希望在其他数据中心中部署该技术,并建议 其他公司也这样做。

 

Facebook公司秉承的使命是“让人们 有能力建立社区,让世界 更紧密地联系在一起”,Facebook公司的 应用机器学习白皮书从数据中心基础设施视角进行概述,它描述 了支持全球范围内机器学习的硬件和软件基础设施。

 

为了让 人们了解人工智能和机器学习需要多少计算能力,百度公 司硅谷实验室的首席科学家Andrew Ng表示,培训百 度的中文语音识别模型不仅需要4TB的训练数据,还需要20个计算机的exaflops(百亿亿次)计算量,也就是 整个培训周期内需要200亿次数学运算。而这些 计算能力需要靠数据中心具备更高的计算能力,以及更 快的内部传输速率来实现。

 

如何搭 建数据中心内部或数据中心之间的流动数据高速公路?其实从hyperscale 100G的数据中心架构开始,SPINE-LEAF脊叶架 构成为主流的架构。这种架 构满足了数据中心东西流量需求的同时,也带来 了更为复杂的服务器到交换机,以及不 同层级交换机之间的交叉互联,这种交叉连接的部署,对于布线的挑战,甚至布线管理的难度,提出了更高的要求。我们将 这种交叉连接称为MESH网络,hyperscale数据中 心在设计时除了考虑基础设施的PUE,设备,光模块的选型之外,如何满 足迅速扩展的云计算业务,加速数据中心scale out(横向扩展) 和scale up(纵向扩展)也是非 常重要的考虑因素。康宁作 为专业的光通信连接方案厂商,能提供 优于行业标准的,更可靠 稳定的产品和方案,针对于MESH的应用,康宁也有MESH模块( module)产品帮 助客户快速实现数据中心的scale out/up。

 

另外,对于400G超大规 模数据中心的连接设计,单模SM MPO连接产 品使用比例进一步攀升,对于SM MPO接头工 艺的要求变得更高。康宁高品质的MTP单模和多模连接产品,能为数 据中心的快速建设和安全运营提供更得力的保障。


上一篇:AOC有源光缆系列降低10-100G链路成本 AOC与DAC的区别

下一篇:10G到400G结构化布线指南(转载)

备案编号:粤ICP备14070344号 Copyright (c) 2006-2016 All rights reserved
友情链接:    河北快三基本走势图-河北快3走势图_看彩网   分分PK10   737彩票---首页欢迎你   558赢彩  天地汇棋牌游戏