spec_sff8431
时间: 2023-11-05 13:02:58 浏览: 48
SFF-8431是一个光纤互连系统(SFF, Small Form Factor)的规范,旨在定义光纤收发器的机械和电气接口,使其能够有效地与其他网络设备进行连接和互通。
这个规范是由SFF委员会制定的,该委员会由行业专家和企业代表组成,致力于制定通信设备的标准。SFF-8431规范主要适用于高速局部和存储网络,如数据中心和计算机互连。
根据SFF-8431规范,光纤收发器应符合特定的尺寸和接口要求。这些规定确保了互连设备之间的兼容性和可互操作性。规范还涵盖了光纤收发器的电气和光学性能要求,包括传输速率、功耗、工作温度范围、输入/输出电压等指标。
根据SFF-8431规范,光纤收发器通常采用小型的插拔模块,具有高速、高密度和低功耗的特点。这些插件通常包括一对光纤接口用于发送和接收数据,并通过电缆与其他设备连接。规范还确保了插件之间的正确对准和机械保护。
总而言之,SFF-8431规范对于光纤收发器的设计、制造和使用方面具有指导作用。它确保了光纤收发器之间的互操作性和兼容性,使得不同厂商的设备可以相互连接并正常运行。这种标准化的特性有助于提高网络的可靠性和性能,促进了光纤通信技术的发展和应用。
相关问题
CIS_ASSAY_SPEC_DETAIL SEQ 序号 CIS_ASSAY_SPEC_DETAIL ORDER_ID 医嘱代码 CIS_ASSAY_SPEC_DETAIL APPA_ID 仪器代码 CIS_ASSAY_SPEC_DETAIL IS_VALID 是否有效(0=无效/1=有效) CIS_ASSAY_SPEC_DETAIL CREATE_TIME 创建时间 CIS_ASSAY_SPEC_DETAIL MODIFY_TIME 修改时间 CIS_ASSAY_SPEC_DETAIL OLD_ROWID 原his库对应表rowid CIS_ASSAY_SPEC_DETAIL BUSINESS_SYSTEM_ID 业务系统ID CIS_ASSAY_SPEC_DETAIL PLA_BRANCH_CODE 平台机构代码 CIS_ASSAY_SPEC_DETAIL ID 标本ID CIS_ASSAY_SPEC_DETAIL IS_EME 是否加急(0=否/1=是) CIS_ASSAY_SPEC_DETAIL REQUEST_NO 申请单号 CIS_ASSAY_SPEC_DETAIL SPEC_TYPE 标本类型 带上注释
-- 创建 CIS_ASSAY_SPEC_DETAIL 表,包含以下字段
-- PLA_BRANCH_CODE: 平台机构代码
-- ID: 标本 ID
-- IS_EME: 是否加急(0=否/1=是)
-- REQUEST_NO: 申请单号
-- SPEC_TYPE: 标本类型
-- SEQ: 序号
-- ORDER_ID: 医嘱代码
-- APPA_ID: 仪器代码
-- IS_VALID: 是否有效(0=无效/1=有效)
-- CREATE_TIME: 创建时间
-- MODIFY_TIME: 修改时间
-- OLD_ROWID: 原his库对应表rowid
-- BUSINESS_SYSTEM_ID: 业务系统ID
CREATE TABLE CDR.CIS_ASSAY_SPEC_DETAIL (
PLA_BRANCH_CODE STRING COMMENT '平台机构代码',
ID STRING COMMENT '标本 ID',
IS_EME STRING COMMENT '是否加急(0=否/1=是)',
REQUEST_NO STRING COMMENT '申请单号',
SPEC_TYPE STRING COMMENT '标本类型',
SEQ STRING COMMENT '序号',
ORDER_ID STRING COMMENT '医嘱代码',
APPA_ID STRING COMMENT '仪器代码',
IS_VALID STRING COMMENT '是否有效(0=无效/1=有效)',
CREATE_TIME TIMESTAMP COMMENT '创建时间',
MODIFY_TIME TIMESTAMP COMMENT '修改时间',
OLD_ROWID STRING COMMENT '原his库对应表rowid',
BUSINESS_SYSTEM_ID BIGINT COMMENT '业务系统ID'
)
PARTITIONED BY (dt STRING)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\001'
STORED AS ORC
LOCATION '/user/hive/warehouse/CDR.db/CIS_ASSAY_SPEC_DETAIL';
spec_start = Input(shape=(data_in[-3], data_in[-2], data_in[-1])) spec_cnn = spec_start for i, convCnt in enumerate(pool_size): spec_cnn = Conv2D(filters=nb_cnn2d_filt, kernel_size=(3, 3), padding='same')(spec_cnn) spec_cnn = BatchNormalization()(spec_cnn) spec_cnn = Activation('relu')(spec_cnn) spec_cnn = MaxPooling2D(pool_size=(1, pool_size[i]))(spec_cnn) spec_cnn = Dropout(dropout_rate)(spec_cnn) spec_cnn = Permute((2, 1, 3))(spec_cnn) spec_rnn = Reshape((data_in[-2], -1))(spec_cnn) for nb_rnn_filt in rnn_size: spec_rnn = Bidirectional( GRU(nb_rnn_filt, activation='tanh', dropout=dropout_rate, recurrent_dropout=dropout_rate,return_sequences=True), merge_mode='mul' )(spec_rnn)
这段代码使用Keras实现了一个深度卷积神经网络(CNN)和循环神经网络(RNN)的模型。其中,`spec_start`是输入层,输入的形状为`(data_in[-3], data_in[-2], data_in[-1])`。`spec_cnn`是CNN的输出层,它的初始化值为输入层`spec_start`。接下来,通过循环`for`语句,依次添加了若干卷积层、批量归一化层、激活函数层、最大池化层和Dropout层。其中`pool_size`是一个包含若干整数的列表,表示每一层最大池化的大小,`nb_cnn2d_filt`是卷积核的数量,`dropout_rate`是dropout的比例。
在添加完所有的卷积层之后,通过`Permute`层对`spec_cnn`的维度进行转置。然后,通过`Reshape`层将`spec_cnn`的输出张量转换为RNN层的输入张量,其中`-1`表示自适应计算该维度的大小。接下来,通过循环`for`语句,依次添加了若干双向GRU层,其中`nb_rnn_filt`是GRU单元的数量,`dropout_rate`是dropout的比例。最终,输出的是RNN层的输出张量。
相关推荐
![PDF](https://img-home.csdnimg.cn/images/20210720083646.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)