Hyperledger Fabric(v1.2.0)代码分析1——channel创建

0. e2e_cli

Hyperledger Fabric提供了一个e2e的例子,该例中创建了一个基础的区块链网络,并进行了交易并查询。麻雀虽小,五脏俱全,我们可以根据e2e的例子来对Fabric区块链网络有一个基本的认识,包括网络创建流程、智能合约(chaincode)实现等。作为底层技术开发者,可以根据e2e的例子来追踪整个代码流程,从而对fabric源码结构有一个清晰的认识。

ele示例的区块链网络由以下几部分顺序执行:

0.1 Generate加密所需要的材料

本过程是根据定义了网络拓扑结构的yaml文件来产生对应关系的加密材料,其主要过程是调用Fabric编译生成的cryptogen工具,cryptogen输入为crypto-config.yaml该文件定义了网络的拓扑结构,具体内容可以查看该文件。

 $CRYPTOGEN generate --config=./crypto-config.yaml

0.2 Generate ChannelArtifacts

这一步主要是生成Orderer的创世区块和一些配置transaction。

# 生成Orderer的创世块
$CONFIGTXGEN -profile TwoOrgsOrdererGenesis -channelID e2e-orderer-syschan -outputBlock ./channel-artifacts/genesis.block # 生成Channel-create.tx
# 这是一个配置transaction,在channel创建时会用到这一步生成的transaction
$CONFIGTXGEN -profile TwoOrgsChannel -outputCreateChannelTx ./channel-artifacts/channel.tx -channelID $CHANNEL_NAME # 生成anchor-peer update-transaction for peer0.org1
$CONFIGTXGEN -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org1MSPanchors.tx -channelID $CHANNEL_NAME -asOrg Org1MSP # 生成anchor-peer update-transaction
$CONFIGTXGEN -profile TwoOrgsChannel -outputAnchorPeersUpdate ./channel-artifacts/Org2MSPanchors.tx -channelID $CHANNEL_NAME -asOrg Org2MSP

0.3 启动docker容器

这一步会根据docker-compose-cli.yaml文件来启动docker容器,其中包括了org1下的两个peer、org2下的两个peer、一个orderer、一个cli。cli容器是我们进行网络控制入口,在cli容器上,我们可以进行网络配置、发起交易、查询交易等操作。

 CHANNEL_NAME=$CH_NAME TIMEOUT=$CLI_TIMEOUT docker-compose -f $COMPOSE_FILE -f $COMPOSE_FILE_COUCH up -d 2>&1

0.4 script脚本执行

在cli容器启动后,会执行scripts/script.sh脚本,该脚本的内容主要包括以下操作;

  • createChannel
  • joinChannel
  • installChaincode
  • instantiateChaincode
  • invokeChaincode
  • queryChainclde

我们对网络的的操作都是从这个脚本发出的,所以我们可以根据script.sh脚本中的步骤来分析fabric代码

1. Create Channel

Channel的创建过程是这样的:

  1. 首先的读取本文0.2章节生成的channel.tx,根据其中内容创建一个channel-create的transaction;
  2. 经过一些基本的验证签名之后,会将channel-create-transaction通过gRPC调用发送给orderer节点;
  3. orderer节点收到创建channel的transaction后,创建一个对应于该channel的创世块,然后将该创世块返回给cli,在后续join-channel的操作中会用到该创世块。

下面来看channel创建过程的代码是如何实现的。

channel创建是通过peer channel create [flags & args]命令来实现的,我们需要首先定位到peer->channel->create中到底干了啥。

生成的peer工具的源码位置是在${Fabric}/peer/目录下,打开该目录的下main.go源码可以看到如下内容:

	mainCmd.AddCommand(version.Cmd())
mainCmd.AddCommand(node.Cmd())
mainCmd.AddCommand(chaincode.Cmd(nil))
mainCmd.AddCommand(clilogging.Cmd(nil))
mainCmd.AddCommand(channel.Cmd(nil))

在fabric中的命令行处理采用了比较流行的cobra库,以上几行代码是为peer添加几个子命令,我们这里关注的channel相关的命令,因此我们跳转进入channel相关的源码。

${Fabric}/peer/channel目录下,是channel相关的实现,其中包含了create、join等子命令。

在文件${Fabric}/peer/channel/create.go中,找到create命令的执行函数

func createCmd(cf *ChannelCmdFactory) *cobra.Command {
createCmd := &cobra.Command{
Use: "create",
Short: "Create a channel",
Long: "Create a channel and write the genesis block to a file.",
RunE: func(cmd *cobra.Command, args []string) error {
return create(cmd, args, cf)
},
}
flagList := []string{
"channelID",
"file",
"outputBlock",
"timeout",
}
attachFlags(createCmd, flagList) return createCmd
}

当执行channel create命令时,会进入create(cmd, args, cf)函数,该函数位于源码文件${Fabric}/peer/channel/create.go最下面,内容如下:

func create(cmd *cobra.Command, args []string, cf *ChannelCmdFactory) error {
// the global chainID filled by the "-c" command
if channelID == common.UndefinedParamValue {
return errors.New("must supply channel ID")
} // Parsing of the command line is done so silence cmd usage
cmd.SilenceUsage = true var err error
if cf == nil {
cf, err = InitCmdFactory(EndorserNotRequired, PeerDeliverNotRequired, OrdererRequired)
if err != nil {
return err
}
}
return executeCreate(cf)
}

create(cmd, args, cf)函数首先检查了是否提供了channelID,之后调用executeCreate(cf)。executeCreate(cf)函数进行了以下几部分工作:

  • sendCreateChainTransaction(cf),发送transaction给order
  • getGenesisBlock(cf),获取创世块
  • 将上一步获取的block尽心字节化编码
  • 写文件,将获取的创世块写到文件里保存
func executeCreate(cf *ChannelCmdFactory) error {
// 发送transaction到orderer
err := sendCreateChainTransaction(cf)
if err != nil {
return err
} // 从orderer获取生成的channel对应的创世块
block, err := getGenesisBlock(cf)
if err != nil {
return err
} // 将block字节化编码
b, err := proto.Marshal(block)
if err != nil {
return err
} // 字节序列化后的block写入文件中,后面join-channel时会用到该文件
file := channelID + ".block"
if outputBlock != common.UndefinedParamValue {
file = outputBlock
}
err = ioutil.WriteFile(file, b, 0644)
if err != nil {
return err
}
return nil
}

看到这个地方,我们已经知道了创建channel时主要干了啥,后面我们一次分析每一项是具体怎么实现的。

1.1 sendCreateChainTransaction(cf)

首先是发送transaction,我们跳转进入该函数。

func sendCreateChainTransaction(cf *ChannelCmdFactory) error {
var err error
var chCrtEnv *cb.Envelope if channelTxFile != "" {
if chCrtEnv, err = createChannelFromConfigTx(channelTxFile); err != nil {
return err
}
} else {
if chCrtEnv, err = createChannelFromDefaults(cf); err != nil {
return err
}
} if chCrtEnv, err = sanityCheckAndSignConfigTx(chCrtEnv); err != nil {
return err
} var broadcastClient common.BroadcastClient
broadcastClient, err = cf.BroadcastFactory()
if err != nil {
return errors.WithMessage(err, "error getting broadcast client")
} defer broadcastClient.Close()
err = broadcastClient.Send(chCrtEnv) return err
}

sendCreateChainTransaction()函数以此做了如下工作:

  1. 根据传入的channel.tx文件创建transaction格式封装chCrtEnv,如果没有提供该文件的话,就根据默认情况创建chCrtEnv;
  2. 对于生成的chCrtEnv进行一系列检查,并生成签名;
  3. broadcastClient.Send(chCrtEnv),将chCrtEnv发送给Orderer。

这里需要讲一下,对于channel相关的配置管理通过ConfigUpdate数据结构来实现的,创建channel的过程就是一个特殊的ConfigUpdate,当发现ConfigUpdate对应的channel不存在时,就会创建channel。关于channel配置相关的数据类型可以参考博文(https://www.cnblogs.com/gexin/p/9332719.html)。

后面的具体创建工作的是在orderer节点上进行的,接下来将目光转移到orderer实现代码中。

1.2 Orderer创建channel

Orderer节点会启动gRPC server,用于帧听client过来的broadcast 消息。

消息的处理函数位于orderer\common\broadcast\broadcast.go中,如下所示:


// Handle starts a service thread for a given gRPC connection and services the broadcast connection
func (bh *handlerImpl) Handle(srv ab.AtomicBroadcast_BroadcastServer) error { // 一系列检查
// 检查代码略过
// 根据msg解析出其中的channelHeader
chdr, isConfig, processor, err := bh.sm.BroadcastChannelSupport(msg)
if !isConfig {
// 过来的消息不是config消息
} else { // isConfig
// 该代码部分是配置transaction的处理部分
// 应用msg中的配置到当前配置
config, configSeq, err := processor.ProcessConfigUpdateMsg(msg)
if err != nil {
// 错误处理
}
// 然后将config应用
err = processor.Configure(config, configSeq)
if err != nil {
// 错误处理
}
} err = srv.Send(&ab.BroadcastResponse{Status: cb.Status_SUCCESS})
if err != nil {
// 错误处理
}
}

由以上代码,我们可以看到在gRPC的处理函数中的做了以下几个工作:

  1. BroadcastChannelSupport(msg),该函数定义在orderer/common/mutichannel/registar.go中,这一步骤是根据chainID去找到map已有的channelSupport类型变量(如果没有就直接新建了一个)并判断是否是config类型的transaction。
  2. ProcessConfigUpdateMsg(msg),该函数定义在orderer/common/msgprocessor/systemchannel.go中,对于一个创建channel的消息而言,该过程会返回一个ORDERER_TRANSACTION。
  3. Configure(config, configSeq),该函数做的就是将上一步产生的ORDERER_TRANSACTION转化为kafka类型的消息,之后通过enqueue()发送到kafka的响应topic中用以排序。

接下来,kafka会对收到的消息进行排序,排序完成后,进行实际的创建genesis块的工作,该部分是在processRegular()函数中实现的,该部分定义在orderer/consensus/kafka/chain.go中。其源码如下所示:

func (chain *chainImpl) processRegular(regularMessage *ab.KafkaMessageRegular, receivedOffset int64) error {

case ab.KafkaMessageRegular_CONFIG:
// Any messages coming in here may or may not have been re-validated
// and re-ordered, BUT they are definitely valid here
// advance lastOriginalOffsetProcessed iff message is re-validated and re-ordered offset := regularMessage.OriginalOffset
if offset == 0 {
offset = chain.lastOriginalOffsetProcessed
} commitConfigMsg(env, offset) }

commitConfigMsg()函数就是实际写入block的函数,其代码如下所示:

// When committing a config message, we also update `lastOriginalOffsetProcessed` with `newOffset`.
// It is caller's responsibility to deduce correct value of `newOffset` based on following rules:
// - if Resubmission is switched off, it should always be zero
// - if the message is committed on first pass, meaning it's not re-validated and re-ordered, this value
// should be the same as current `lastOriginalOffsetProcessed`
// - if the message is re-validated and re-ordered, this value should be the `OriginalOffset` of that
// Kafka message, so that `lastOriginalOffsetProcessed` is advanced
commitConfigMsg := func(message *cb.Envelope, newOffset int64) {
logger.Debugf("[channel: %s] Received config message", chain.ChainID())
batch := chain.BlockCutter().Cut() chain.lastOriginalOffsetProcessed = newOffset
block := chain.CreateNextBlock([]*cb.Envelope{message})
metadata := utils.MarshalOrPanic(&ab.KafkaMetadata{
LastOffsetPersisted: receivedOffset,
LastOriginalOffsetProcessed: chain.lastOriginalOffsetProcessed,
LastResubmittedConfigOffset: chain.lastResubmittedConfigOffset,
})
chain.WriteConfigBlock(block, metadata)
chain.lastCutBlockNumber++
chain.timer = nil
}

至此,一个channel的genesis区块也就创建完成了。

Hyperledger Fabric(v1.2.0)代码分析1——channel创建的更多相关文章

  1. Hyperledger Fabric(v1.1.0)编译时遇到的问题

    Hyperledger Fabric(v1.1.0)编译时遇到的问题 0. 编译过程的坑 编译时,按照如下顺序编译 make release,编译源码生成二进制文件 make docker,生成一系列 ...

  2. 使用docker加载已有镜像安装Hyperledger Fabric v1.1.0

    背景 每次在新的服务器上安装Hyperledger Fabric网络时,通过fabric官方提供的脚本安装时,需要从网络上down下近10G的fabric相关镜像,这个过程是漫长及痛苦的,有时因网络问 ...

  3. Hyperledger Fabric v1.1.0安装记录(国内源版)

    1. 安装虚拟机     虚拟机软件采用:VirtualBox     操作系统选择:Ubuntu 14.04     内存:4G     CPU:2核     硬盘:20G     2.(可选)更改 ...

  4. 阿里云容器服务区块链解决方案全新升级 支持Hyperledger Fabric v1.1

    摘要: 全球开源区块链领域影响最为广泛的Hyperledger Fabric日前宣布了1.1版本的正式发布,带来了一系列丰富的新功能以及在安全性.性能与扩展性等方面的显著提升.阿里云容器服务区块链解决 ...

  5. 安装hyperledger fabric V1.0.1

      安装文档位置: https://github.com/hyperledger/fabric   fabric代码托管地址 https://hyperledger-fabric.readthedoc ...

  6. 安装hyperledger fabric V1.0.0-beta

      安装文档位置: https://github.com/hyperledger/fabric   fabric代码托管地址 https://hyperledger-fabric.readthedoc ...

  7. Ubuntu下搭建Hyperledger Fabric v1.0环境

      多次尝试才正常启动了Fabric,如遇到各种莫名错误,请参考如下一步步严格安装,特别用户权限需要注意. 一.安装Ubuntu16 虚拟机或双系统,虚拟机有VirtualBox或者VMware,Ub ...

  8. 三、主流区块链技术特点及Hyperledger Fabric V1.0版本特点

    一.Hyperledger fabric V1.0 架构 1.逻辑架构: 2.区块链网络 3.运行时架构 二.架构总结 1.架构要点 分拆Peer的功能,将Blockchain的数据维护和共识服务进行 ...

  9. 003-主流区块链技术特点及Hyperledger Fabric V1.0版本特点

    一.Hyperledger fabric V1.0 架构 1.逻辑架构: 2.区块链网络 3.运行时架构 二.架构总结 1.架构要点 分拆Peer的功能,将Blockchain的数据维护和共识服务进行 ...

随机推荐

  1. PAT乙级1020

    1020 月饼 (25 分)   月饼是中国人在中秋佳节时吃的一种传统食品,不同地区有许多不同风味的月饼.现给定所有种类月饼的库存量.总售价.以及市场的最大需求量,请你计算可以获得的最大收益是多少. ...

  2. CentOS添加并挂载新硬盘

    1.查看当前硬盘使用状况: [test@master Desktop]$ df -hFilesystem Size Used Avail Use% Mounted on/dev/sda2 13G 12 ...

  3. [教程] 【【【【odex教程之jar】】】】/system/framework里面的jar做odex g13

    dexopt-wrapper core.jar core.odex dexopt-wrapper ext.jar ext.odex dexopt-wrapper framework.jar frame ...

  4. 【Unix 网络编程】TCP 客户/服务器简单 Socket 程序

    建立一个 TCP 连接时会发生下述情形: 1. 服务器必须准备好接受外来的连接.这通常通过调用 socket.bind 和 listen 这三个函数来完成,我们称之为被动打开. 2. 客户通过调用 c ...

  5. UML类图6种主要关系区别和联系

    UML类图关系图示,因为长得都很类似,所以大家总会混淆,本文主要目的就是分析一下6种主要的关系,找到联系与区别,便于记忆. 6种主要的关系如图1所示.继承与实现.组合与聚合.关联与依赖可分别划分为一组 ...

  6. mysql/mariadb学习记录——查询3(AVG、SUM、COUNT)函数

    AVG() 求平均数函数: //求emp表中的sal属性的平均值 mysql> select avg(sal) as salAverage from emp; +-------------+ | ...

  7. 网格布局(GridLayout) 行数与列数

    1.如果网格布局对象未指定具体的“行数”和“列数”,那么它将拥有1行和动态的列数. import java.awt.Button; import java.awt.Frame; import java ...

  8. 关于mysql中GROUP_CONCAT函数的使用

    偶然看到公司存储过程中有个字符串拼接的函数,改bug过程中使用到了,还挺有用的,于是记录下来方便记忆,帮助有需要的人. 这是我需要整理的串,他是调用了一个存储过程,传入组织机构的id和迭代层数,返回来 ...

  9. ADI高速信号采集芯片与JESD204B接口简介

    ADI高速信号采集芯片与JESD204B接口简介 JESD204B接口 介绍: JEDEC Standard No. 204B (JESD204B)—A standardized serial int ...

  10. lua io操作(一)

    最近在做可视化窗口数据配置 使用的lua 语言,免不了IO操作 通过查阅资料,做了如下总结,易于理解 lua里的文件读写模型来自C语言,分为完整模型(和C一样).简单模型. 1.简单模型 io.inp ...