首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    光纤及光纤接入设备[通俗易懂]

    由于不同种类信息的需求也越来越多,伴随而来的不断增长的IP 数据、话音、多媒体图像等多种新业务需求,促使了各大网络运营商的传送网络环境发生了翻天俯地的变化,以前那些以承载模拟话音为主要目的的传统城域网和接入网在容量以及接口种类上都已经无法满足多种多样的新业务传输与处理的要求。于是迫于社会信息量的突飞猛进,那些专门为城域网和接入网上提供新业务传送的技术及设备迅速发展起来。其中以MSTP( 多业务传输平台) 和PON( 无源光网络) 发展是最具有代表性的,它们都是基于光纤传送技术、在城域网或接入网上提供多种新业务承载的最佳解决方案。   基于光缆的光纤接入技术是未来宽带网络的发展方向,它的发展也离不开光纤接入设备发展和支持,就像鱼与水一样。谈起光纤接入设备不得不提起它的三代发展经历:   第一代大量采用地PDH( 光纤光端机) 设备,包括点到点型和星型局端设备,不具备汇聚功能。全部采用PDH 传输协议,也没有光接口规范。用户业务如E1 和数据业务通过远端设备,利用私有PDH 协议进行复接,经光纤传输到局端设备。局端设备按照私有协议对PDH 光信号进行分接,又转换成为E1 等PDH 接口,再通过电缆经DDF 配线架与城域骨干/ 汇聚设备连接。由于PDH 协议的局限性致使各类光纤接入设备很快落伍。   第二代鉴于第一代设备的缺陷,一些PDH 设备厂商研发出第二代设备,即在局端设备中增加一个SDH( 密集型光波复用) 终端卡。在局端与远端设备之间仍然采用私有的PDH 协议,而在局端提供汇聚功能,将原来的E1 信号经SDH 终端卡复用,并给出标准SDH 接口。主要解决了局端设备与城域骨干设备的互连问题和统一接口标准。   第三代是SDH 直通设备,包括汇聚型和非汇聚型。由于新业务覆盖面广,新一代SDH 直通设备已经能够按照SDH 规范,自动适配到SDH 进行传送; 非汇聚型的远端设备可以通过SDH 光接口直接连接到城域网汇聚层节点上,适合从汇聚层网络上分支出较少的业务接口。汇聚型则在局端插入SDH 汇聚设备,将来自多个方向的VC12 业务汇聚到上行SDH 接口中,从而节省大容量骨干节点设备上的STM-1 接口卡数量。主要解决了各设备兼容问题,便于以后升级、维护。 光纤接入设备发展到今天,由于光纤接入技术的不断更新和越来越多的生产商×××,光纤接入设备的类别也越来越明显,主要分三大类为 : (1) 光纤通信接续文元件 ( 适用通信及计算机网络终端连接 ) ,如 : 光纤跳线、光纤接头 ( 盒 ) 等。 (2) 光纤收发器 ( 适用计算机网络数据传输 ) ,如 : 包括光纤盒、光纤耦合器和配线箱 ( 架 ) 等。 (3) 光缆工程设备、光缆测试仪表 ( 大型工程专用 ) ,如 : 光纤熔接机、光纤损耗测试仪器等。   对于前两大类是我们经常可以了解、接触的光纤接入设备产品,下面小编就以光纤通信接续文元件和光纤收发器两大类设备作个介绍: 光纤跳线

    03

    Emulex LightPulse FC9002L光纤卡安装日志

    # tar xvf solaris-6.01c-1a.tar x EmlxApps300a8-Solaris.tar, 6850560 bytes, 13380 tape blocks x lpfc-6.01c-sparc.tar, 1848832 bytes, 3611 tape blocks x readme.first.txt, 953 bytes, 2 tape blocks # ls EmlxApps300a8-Solaris.tar  readme.first.txt           ssh-UdjGS369 lpfc-6.01c-sparc.tar       solaris-6.01c-1a.tar # tar xvf lpfc-6.01c-sparc.tar x lpfc.1, 0 bytes, 0 tape blocks x lpfc.1/pkgmap, 1814 bytes, 4 tape blocks x lpfc.1/pkginfo, 276 bytes, 1 tape blocks x lpfc.1/install, 0 bytes, 0 tape blocks x lpfc.1/install/copyright, 480 bytes, 1 tape blocks x lpfc.1/install/postinstall, 9336 bytes, 19 tape blocks x lpfc.1/install/postremove, 2848 bytes, 6 tape blocks x lpfc.1/install/preremove, 1620 bytes, 4 tape blocks x lpfc.1/install/request, 2378 bytes, 5 tape blocks x lpfc.1/install/space, 23 bytes, 1 tape blocks x lpfc.1/reloc, 0 bytes, 0 tape blocks x lpfc.1/reloc/etc, 0 bytes, 0 tape blocks x lpfc.1/reloc/etc/system, 0 bytes, 0 tape blocks x lpfc.1/reloc/kernel, 0 bytes, 0 tape blocks x lpfc.1/reloc/kernel/drv, 0 bytes, 0 tape blocks x lpfc.1/reloc/kernel/drv/lpfc, 592692 bytes, 1158 tape blocks x lpfc.1/reloc/kernel/drv/lpfc.conf, 10863 bytes, 22 tape blocks x lpfc.1/reloc/kernel/drv/sd.conf, 1185 bytes, 3 tape blocks x lpfc.1/reloc/kernel/drv/sparcv9, 0 bytes, 0 tape blocks x lpfc.1/reloc/kernel/drv/sparcv9/lpfc, 719064 bytes, 1405 tape blocks x lpfc.1/reloc/usr, 0 bytes, 0 tape blocks x lpfc.1/reloc/usr/include, 0 bytes, 0 tape blocks x lpfc.1/reloc/usr/include/fcdiag.h, 18051 bytes, 36 tape blocks x lpfc.1/reloc/usr/lib, 0 bytes, 0 tape blocks x lpfc.1/reloc/usr/lib/libdfc.a, 43820 bytes, 86 tape blocks x lpfc.1/reloc/usr/lib/libdfc.so, 42000 bytes, 83 tape blocks x lpfc.1/reloc/usr/lib/sparcv9, 0 bytes, 0 tape blocks x lpfc.1/reloc/usr/lib/sparcv9/libdfc.a, 47936 bytes, 94 tape blocks x lpfc.1/reloc/usr/lib/sparcv9/libdfc.so, 51248 bytes, 101 tape blocks x lpfc.1/reloc/usr/sbin, 0 bytes, 0 tape blocks x lpfc.1/reloc/usr/sbin/lpfc, 0 bytes, 0 tape blocks x lpfc.1/reloc/usr/sbin/lpfc/convert_path_lpfc, 2257

    02

    pcie和minipcie区别_minipcie接口定义

    MCIeCAN系列miniPCIe接口CAN卡,具有1~2路CAN通道和一路PCI Express mini接口,插到工控机或单板电脑的PCI Expressmini卡槽上,快速扩展出1~2路CAN通道。CAN接口电气隔离高达2500VDC,具有优秀的EMC性能,可靠性测试项目:ESD接触放电8KV、浪涌±1KV、脉冲群±2KV,工业级,通过CE-EMC和FCC认证。 ,2,配套功能 配套测试软件LCANTest使用,接收、发送、查看、分析、记录、回放CAN报文;配套丰富驱动;配套包含库函数、库函数调用说明和丰富例程的二次开发资料包;提供全程专家指导服务 minipcie接口can卡,工控机或单板电脑扩展CAN通道的佳选,支持j1939、canopen、dbc等协议规范的分析或解码,提供linux/ubuntu、vxworks、qnx、intime、sylixos等系统开发包。

    02

    解决数据中心网速变慢的八个检查必备步骤

    在数据中心运行过程中,不可避免会出现各种各样的问题。若网络发生信息不通、网页不能浏览等连通性故障时,这类故障现象的故障点很容易检查和定位, 解决起来并不困难。但是网络如果是通的,而网速变慢。遇到这种“软”故障,就比较令人头痛,有的人往往就会束手无策。一旦遇到这类问题时,需要有一个定位问题的基本思路,这样就能帮助我们在日常维护中有条不紊地找到问题的真实原因。 第一:检查设备CPU占用率 数据中心里的设备少则数百,多则上万,不可能都去依依检查CPU。需要先明确哪个业务慢,了解这个业务在数据中心里需要经过哪些设备

    05

    扫码

    添加站长 进交流群

    领取专属 10元无门槛券

    手把手带您无忧上云

    扫码加入开发者社群

    相关资讯

    热门标签

    活动推荐

      运营活动

      活动名称
      广告关闭
      领券