alpakka-kafka(9)-kafka在分布式运算中的应用

博客 动态
0 209
羽尘
羽尘 2022-01-28 12:54:37
悬赏:0 积分 收藏

alpakka-kafka(9)-kafka在分布式运算中的应用

  kafka具备的分布式、高吞吐、高可用特性,以及所提供的各种消息消费模式可以保证在一个多节点集群环境里消息被消费的安全性:即防止每条消息遗漏处理或重复消费。特别是exactly-once消费策略:可以保证每条消息肯定只被消费一次。换句话说就是在分布式运算环境里kafka的消息消费是能保证唯一性的。

但是,保证了消息读取唯一性,消息的处理过程如果也放到分布式运算环境里仍然会面对数据完整性(data integrity)问题。例如:消息处理过程是更新银行账户中金额、消息内容是更新某个账户的指令,那么,对多条针对同一个银行账户的消息进行并行处理时肯定会引发数据完整性问题。这就是本文重点讨论的问题。

我们来看看下面的代码:

kfkSource        .async.mapAsync(parallelism=8) { msg => updateAccount(msg.value() }          .toMat(Sink.fold(0) { (accu, e) => if (e) accu + 1 else accu })(Keep.right)           .run()

在上面的例子里,从kafka队列里逐一读取的消息可能有多个被并行处理(最多有8个并行线程parallelism=8), 如果这8条消息里包含相同的账户号码,肯定会产生数据完整性问题。那么如果:

> kfkSource        .async.mapAsync(parallelism=1) { msg => updateAccount(msg.value() }          .toMat(Sink.fold(0) { (accu, e) => if (e) accu + 1 else accu })(Keep.right)           .run()

用(parallelism=1),这样每条消息用单一线程处理,牺牲一些效率,能解决问题吗?答案是:在这台服务器上貌似可以。但我们的目的是在一个多节点集群环境里进行数据处理。这也应该是我们使用kafka的初衷嘛。在分布式环境里上面的这段代码等于是在多个节点上同时运行,同样会产生像多线程并行运算所产生的问题。
显然:问题的核心是重复的消息内容,在上面的例子里是多条消息里相同的银行账号。如果相同的账号在同一个线程里进行处理就可以避免以上问题了。akka actor信箱里的指令是按序逐个执行的,所以我们如果能保证把相同内容的消息发给同一个actor就可以解决问题了。为了实现有目的的向actor发送消息,可以使用集群分片(cluster-sharding)。在akka-cluster里,每一个分片都就等于一个命名的actor。还有一个问题是如果涉及大量的唯一账号,或者商品号,比如超百万的唯一编号又该怎么办呢?刚才讲过:我们只要保证每一种消息发给同一个分片,多种消息是可以发个同一个分片的。所以,对于大量编号我们可以通过hash算法来简化编号精度,如下:

def hashItemCode(code: String): String = {     val arrCode = code.toCharArray     var occur : Array[Int] = Array.fill(8)(0)     arrCode.foreach {       case x if (x >= '0' && x <= '2') =>         occur(0) = occur(0) + 1       case x if (x >= '3' && x <= '5') =>         occur(1) = occur(1) + 1       case x if (x >= '6' && x <= '8') =>         occur(2) = occur(2) + 1       case x if (x == '9' || x == '-' || x == '_' || x == ':') =>         occur(3) = occur(3) + 1       case x if ((x >= 'a' && x <= 'g') || (x >= 'A' && x <= 'G')) =>         occur(4) = occur(4) + 1       case x if ((x >= 'h' && x <= 'n') || (x >= 'H' && x <= 'N')) =>         occur(5) = occur(5) + 1       case x if ((x >= 'o' && x <= 't') || (x >= 'O' && x <= 'T')) =>         occur(6) = occur(6) + 1       case x if ((x >= 'u' && x <= 'z') || (x >= 'U' && x <= 'Z')) =>         occur(7) = occur(7) + 1       case _ =>         occur(7) = occur(7) + 1     }     occur.mkString  }

这个hashItemCode返回一个字串,代表原编码code中各种字母发生的频率,把这个字串作为sharding的entityId。
那么从kafaka读取一条消息后按hashItemCode结果指定发送给某个分片,下面是一个实际例子:

 def toStockWorker(jsonDoc: String) = {    val bizDoc = fromJson[BizDoc](jsonDoc)    val plu = bizDoc.pluCode    val entityId = DocModels.hashItemCode(plu)    log.step(s"CurStk-toStockWorker: sending CalcStock to ${entityId} with message: $jsonDoc")    val entityRef = sharding.entityRefFor(StockCalculator.EntityKey, entityId)    entityRef ! StockCalculator.CalcStock(jsonDoc)  }

下面我提供一个exactly-once源代码作为参考; 

 

 (1 to numReaders).toList.map {_ =>      RestartSource        .onFailuresWithBackoff(restartSource) { () => mergedSource }//        .viaMat(KillSwitches.single)(Keep.right)        .async.mapAsync(1) { msg =>    //only one message uniq checked        for {                                      //and flow down stream          newtxn <- curStk.isUniqStkTxns(msg.value())          _ <- FastFuture.successful {            log.step(s"ExactlyOnceReaderGroup-futStkTxnExists is ${!newtxn}: ${msg.value()}")          }        } yield (newtxn,msg)      }        .async.mapAsyncUnordered(8) { rmsg =>  //passed down msg          for {       //can be parrallelly processed            cmt <- if (rmsg._1) stkTxns.stkTxnsWithRetry(rmsg._2.value(), rmsg._2.partition(), rmsg._2.offset()).toFuture().map(_ => "Completed")            else FastFuture.successful {"stktxn exists!"}            pmsg <- FastFuture.successful {              log.step(s"ExactlyOnceReaderGroup-stkTxnsWithRetry: committed transaction-$cmt")              rmsg            }          } yield pmsg        }        .async.mapAsyncUnordered(8) { rmsg =>        for {          _ <- if(rmsg._1) FastFuture.successful {curStk.toStockWorker(rmsg._2.value())}          else FastFuture.successful(false)          pmsg <- FastFuture.successful {            log.step(s"ExactlyOnceReaderGroup-updateStk...")            rmsg          }        } yield pmsg      }        .async.mapAsyncUnordered(8) { rmsg =>        for {          _ <- if (rmsg._1) FastFuture.successful {            pcmTxns.toPcmAggWorker(rmsg._2.value())          }          else FastFuture.successful(false)          pmsg <- FastFuture.successful {            log.step(s"ExactlyOnceReaderGroup-AccumulatePcm...")          }        } yield "Completed"      }         .toMat(Sink.seq)(Keep.left)        .run()    }

 

 

 

 

 

 

 

 

posted @ 2022-01-28 12:37 雪川大虫 阅读(5) 评论(0) 编辑 收藏 举报
回帖
    羽尘

    羽尘 (王者 段位)

    2335 积分 (2)粉丝 (11)源码

     

    温馨提示

    亦奇源码

    最新会员