接下来进行集群的安装,包括命名,ssh免密,选择版本,规划集群
最终完成集群安装,我们就可以在页面管理我们的集群了。
详细官网安装文档pdf请在关注“实时流式计算” 后台回复ambari
实时计算环境搭建由于ambari支持的druid版本较低,目前暂不支持flink,所以除kafka外的实时计算组件,需要手动安装,也方便以后的升级。
Linux系统上安装flink 集群安装集群安装分为以下几步:
1、在每台机器上复制解压出来的flink目录。
2、选择一个作为master节点,然后修改所有机器conf/flink-conf.yaml
jobmanager.rpc.address = master主机名3、修改conf/slaves,将所有work节点写入
work01 work024、在master上启动集群
bin/start-cluster.sh 安装在Hadoop我们可以选择让Flink运行在Yarn集群上。
下载Flink for Hadoop的包
保证 HADOOP_HOME已经正确设置即可
启动 bin/yarn-session.sh
运行flink示例程序 批处理示例:提交flink的批处理examples程序:
bin/flink run examples/batch/WordCount.jar这是flink提供的examples下的批处理例子程序,统计单词个数。
$ bin/flink run examples/batch/WordCount.jar Starting execution of program Executing WordCount example with default input data set. Use --input to specify file input. Printing result to stdout. Use --output to specify output path. (a,5) (action,1) (after,1) (against,1) (all,2) (and,12) (arms,1) (arrows,1) (awry,1) (ay,1) Druid集群部署 部署建议集群部署采用的分配如下:
主节点部署 Coordinator 和 Overlord进程
两个数据节点运行 Historical 和 MiddleManager进程
一个查询节点 部署Broker 和 Router进程
未来我们可以添加更多的主节点和查询节点
主节点建议 8vCPU 32GB内存
配置文件位于
conf/druid/cluster/master数据节点建议
16 vCPU 122GB内存 2 * 1.9TB SSD
配置文件位于
conf/druid/cluster/data查询服务器 建议 8vCPU 32GB内存
配置文件位于
conf/druid/cluster/query 开始部署下载最新0.17.0发行版
解压
tar -xzf apache-druid-0.17.0-bin.tar.gz cd apache-druid-0.17.0集群模式的主要配置文件都位于:
conf/druid/cluster 配置元数据存储 conf/druid/cluster/_common/common.runtime.properties替换
druid.metadata.storage.connector.connectURI druid.metadata.storage.connector.host例如配置mysql为元数据存储
在mysql中配置好访问权限:
-- create a druid database, make sure to use utf8mb4 as encoding CREATE DATABASE druid DEFAULT CHARACTER SET utf8mb4; -- create a druid user CREATE USER 'druid'@'localhost' IDENTIFIED BY 'druid'; -- grant the user all the permissions on the database we just created GRANT ALL PRIVILEGES ON druid.* TO 'druid'@'localhost';在druid中配置
druid.extensions.loadList=["mysql-metadata-storage"] druid.metadata.storage.type=mysql druid.metadata.storage.connector.connectURI=jdbc:mysql://<host>/druid druid.metadata.storage.connector.user=druid druid.metadata.storage.connector.password=diurd 配置深度存储将数据存储配置为S3或者HDFS
比如配置HDFS,修改
conf/druid/cluster/_common/common.runtime.properties druid.extensions.loadList=["druid-hdfs-storage"] #druid.storage.type=local #druid.storage.storageDirectory=var/druid/segments druid.storage.type=hdfs druid.storage.storageDirectory=http://www.likecs.com/druid/segments #druid.indexer.logs.type=file #druid.indexer.logs.directory=var/druid/indexing-logs druid.indexer.logs.type=hdfs druid.indexer.logs.directory=http://www.likecs.com/druid/indexing-logs将Hadoop配置XML(core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml)放在Druid中
conf/druid/cluster/_common/ 配置zookeeper连接还是修改
conf/druid/cluster/_common/下的
druid.zk.service.host为zk服务器地址就可以了
启动集群启动前注意打开端口限制
主节点:
derby 1527
zk 2181
Coordinator 8081
Overlord 8090
数据节点:
Historical 8083
Middle Manager 8091, 8100–8199
查询节点:
Broker 8082
Router 8088
记得将刚才配好的druid复制到各个节点
启动主节点