flume接收http请求,并将数据写到kafka,spark消费kafka的数据.是数据采集的经典框架. 直接上flume的配置: source : http channel : file sink : kafka xx :~/software/flume1.8/conf$ cat http-file-kafka.conf # example.conf: A single-node Flume configuration ########## # data example # use post
上篇讲到.net core web app是如何启动并接受请求的,下面接着探索kestrel server是如何完成此任务的. 1.kestrel server的入口KestrelServer.Start(Microsoft.AspNetCore.Hosting.Server.IHttpApplication) FrameFactory创建的frame实例最终会交给libuv的loop回调接收请求.但是在这过程中还是有很多的初始化工作需要做的.后面我们就管中窥豹来看一看. public void