以下操作需要进入druid-io安装文件的根目录下操作,比如我的druid-io安装目录为:/hadoop/dc/druid-0.9.1.1 那么咱们需要操作 cd /hadoop/dc/druid-0.9.1.1

修正Druid装备


修正_common/common.runtime.properties装备文件

vim _common/common.runtime.properties

修正文件中druid.storage装备信息为以下内容

druid.extensions.hadoopDependenciesDir=/hadoop/dc/druid/hadoop-dependencies/hadoop-client/2.7.3
druid.storage.type=hdfs
druid.storage.storageDirectory=hdfs://nameservice1/druid/segments
#注释掉本来的本地存储
#druid.indexer.logs.type=file
#druid.indexer.logs.directory=/hadoop/dc/indexing-logs
#druid.storage.type=local
#druid.storage.storageDirectory=/hadoop/dc/segments

druid.extensions.hadoopDependenciesDir: 用于装备Hadoop相关依靠的jar文件夹地址

druid.storage.storageDirectory: 装备数据存储的地址,关于ha的集群来说只需要填写ha的地址即可

装备hadoop依靠


咱们在druid.extensions.hadoopDependenciesDir装备中指定了hadoop依靠的位置,就需要咱们将依靠jar放置到该位置

复制hadoop集群相关的装备信息到_common文件夹中(改装备文件在集群中可下载CDH or HDP均可)

mv core-site.xml /hadoop/dc/druid/conf/druid/_common/
mv hdfs-site.xml /hadoop/dc/druid/conf/druid/_common/
mv mapred-site.xml /hadoop/dc/druid/conf/druid/_common/
mv yarn-site.xml /hadoop/dc/druid/conf/druid/_common/

将hadoop相关的依靠jar复制到druid.extensions.hadoopDependenciesDir装备的目录中即可

复制修正后的装备文件发送到各个节点重启服务器即可