druid Configuration配置和启动

     

    在druid进行配置时,首先需要搞清楚druid的整体架构、节点等概念,这对于后续各节点配置有更好的作用,druid整体架构如下:


 (1)broker Nodes:对于Historical Nodes和Real-time Nodes来说作用是查询路由,所有的客户端请求都会发送到Broker Nodes中,该节点知道在zookeeper之上的segments信息,哪些segments是可查询的和这些segments存储在什么位置,最后该节点会merge来自Historical Nodes 和Real-time Nodes的查询结果,反馈给客户端,此外该节点还提供缓存的功能,它会缓存查询结构,如果后续查询hit 缓存,则只会去Historical 和Real-time Nodes去查询。

(2)Real-time Nodes:实时节点,实时ingest摄取数据,并可提供立即查询,该节点只关注较小时间范围内的数据,它会周期性的将接受到的stream 流数据落盘(hand off ),通过zookeeper与其他节点进行协调,它内部为将要摄取的Stream 流数据提供了一个基于内存的Buffer,为了避免内存溢出,会周期性或者达到最大数据量时将数据落盘。

(3)Historical Nodes:历史查询节点,只负责从Deep Storage中加载数据,删除数据,并对加载到内存中数据提供查询功能,通过zookeeper上报状态,并且接受来自zookeeper的指令,包括加载(load)和删除(drop)segments,并保存着Deep Storage中segments中的存储信息,知道如何解压缩和处理segments.

 (4)Coordinate Nodes:主要负责分布在Historical Nodes节点之上数据的管理,它通过zookeeper告知Historical Nodes 去Load 新的segments 和drop 过期的segments,并保持真个cluster 的运行的balance。

(5) MySQL: 主要存储druid 的元数据,主要包括segments元数据信息、rule table 信息,ingest task任务信息等。

                                 

(6)zookeeper: 负责与各个节点进行协调和状态同步,并接受来自coordinate的指令(drop 、load),并存储druid 从Deep Storage中加载到内存中的segments信息,只有加载到内存,数据才是可查询的。

    对于druid 在搭建的时候需要配置各个节点,主要包括,

      

      其中middelManager和overlord均属于Real-time Node节点范围,overlord负责接受来自客户端的supervisor的请求,创建supervisor,而middelManager负责根据supervisor创建实际的task任务,task任务负责从外部message bus中实时获取数据,每个节点都包括jvm.properites和runtime.properties配置。

  (1) common configuration

      minial 配置如下,主要包括zookeeper配置,deep storage配置,mysql配置以及比较重要的druid.indexer.logs.directory配置,该属性便于后续查看task的日志信息。

druid.extensions.loadList主要配置extensions的依赖,如果实时从kafka读取数据,需要“druid-kafka-indexing-service”,如果需要hdfs 存储,则需要“druid-hdfs-storage”,需要根据实际情况去配置。

# Extensions
#

# This is not the full list of Druid extensions, but common ones that people often use. You may need to change this list
# based on your particular setup.
druid.extensions.loadList=["mysql-metadata-storage", "druid-hdfs-storage","druid-kafka-indexing-service","kafka-emitter","druid-datasketches"]

# If you have a different version of Hadoop, place your Hadoop client jar files in your hadoop-dependencies directory
# and uncomment the line below to point to your directory.
#druid.extensions.hadoopDependenciesDir=/my/dir/hadoop-dependencies

#
# Logging
#

# Log all runtime properties on startup. Disable to avoid logging properties on startup:
druid.startup.logging.logProperties=true

#
# Zookeeper
#

druid.zk.service.host=10.1.1.84:2181,10.1.1.77:2181,10.1.1.182:2181
druid.zk.paths.base=/druid

#
# Metadata storage
#

# For MySQL:
druid.metadata.storage.type=mysql
druid.metadata.storage.connector.connectURI=jdbc:mysql://xxxxxxxxxxxxxxxxxx:3306/druid
druid.metadata.storage.connector.user=xxxx
druid.metadata.storage.connector.password=xxxxx
#
# Deep storage
#

# For local disk (only viable in a cluster if this is a network mount):
druid.storage.type=local
druid.storage.storageDirectory=/var/druid/segments

# For HDFS (make sure to include the HDFS extension and that your Hadoop config files in the cp):
#druid.storage.type=hdfs
#druid.storage.storageDirectory=/druid/segments

#
# Indexing service logs
#

# For local disk (only viable in a cluster if this is a network mount):
druid.indexer.logs.type=file
druid.indexer.logs.directory=/var/druid/indexing-logs

# For HDFS (make sure to include the HDFS extension and that your Hadoop config files in the cp):
#druid.indexer.logs.type=hdfs
#druid.indexer.logs.directory=/druid/indexing-logs
#
# Service discovery
#

druid.selectors.indexing.serviceName=druid/overlord
druid.selectors.coordinator.serviceName=druid/coordinator

#
# Monitoring
#

druid.monitoring.monitors=["com.metamx.metrics.JvmMonitor"]
druid.emitter=composing
druid.emitter.logging.logLevel=info

  (2)Broker节点

    jvm.properties:

    

  runtime.propertis

 

其中druid.processing.buffer.sizeBytes * (druid.processing.numThreads + 3)要小于此目录下jvm.config文件中MaxDirectMemorySize的值,否则启动不起来。

(2)coordinate

   jvm.properties :


runtime.properties:


(3)historical configuration

  jvm.properties;

runtime.properties:


druid.processing.buffer.sizeBytes * (druid.processing.numThreads + 3)要小于此目录下jvm.config文件中MaxDirectMemorySize的值,否则启动不起来。

并可配置segments Cache的,以提高查询效率。

(4)overload configuration

 jvm.properties:


runtime.properties


(5)middle manager

jvm.properties;  


该节点的堆大小可设置较少,其主要创建task ,由task进行创建peon进行数据的实时ingest.

runtime.propertis:


其中,druid.worker.capacity主要配置可运行的task数量,task launch parameters主要用配置每个taskd的运行参数,并且

druid.processing.buffer.sizeBytes * (druid.processing.numThreads + 3)要小每个任务线程所使用的内存 –Xmx

启动druid

1、进入到druid-0.10.0目录下,使用bin/overlord.sh start,bin/coordinator.sh start 等命令启动对应的overlord、coordinator等节点。整个集群中,为确保HA,需要启动两个overlord、两个middleManager、两个coordinator、两个broker、三个historical节点。每台服务器上执行相应的启动节点命令。
2、验证:进入druid-0.10.0目录

①执行解压命令:

gzip -c -d quickstart/wikiticker-2015-09-12-sampled.json.gz > "quickstart/wikiticker-2015-09-12-sampled.json"
②导入数据:
curl -X 'POST' -H 'Content-Type:application/json' -d @quickstart/wikiticker-index.json overlordip:host /druid/indexer/v1/task
       //overlordip替换为overlord节点所在服务器ip
   出现{"task":"index_hadoop_wikiticker_2018-02-07T02:23:25.718Z"}说明导入成功
③查询

curl -L -H'Content-Type: application/json' -XPOST --data-binary @quickstart/wikiticker-top-pages.json http://brokerip:host/druid/v2/?pretty

//brokerip替换为broker节点所在服务器ip

返回查询结果说明集群无问题

猜你喜欢

转载自blog.csdn.net/xiaobai51509660/article/details/80741647