-
Mysql (5.5+) : 必装
-
JDK (1.8.0_141) : 必装
-
Hadoop(2.7.2) :必装,
-
Hive(1.2.1) : 选装,hive引擎节点需要安装
-
Spark(2.1.0) : 必装,Spark引擎节点需要安装
注意:Linkis本身不依赖Hive、Spark等服务,仅是会调用他们的Client,用于对应任务的运行。
例如部署用户是hadoop账号
-
在所有需要部署的机器上创建部署用户
sudo useradd hadoop sudo cp ~/.bashrc /home/hadoop
-
因为Linkis的服务是以 sudo -u ${linux-user} 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
vi /etc/sudoers hadoop ALL=(ALL) NOPASSWD: NOPASSWD: ALL
在部署机器和其他安装机器上配置ssh免密登录,如果要在部署机上安装,需要将主机器和各个其它机器SSH打通
从git获取项目代码后,使用maven打包项目安装包(如已有安装包可以直接进行安装,不需要编译打包)。
(1) 在最外层工程pom.xml所在目录执行以下命令
mvn clean install
(2) 如果是本地第一次使用,必须先执行以下命令,否则执行步骤1即可:
mvn -N install
(3) 获取安装包,在工程的assembly->target目录下:
assembly-0.5.0-SNAPSHOT-dist.tar.gz
先解压安装包到安装目录,并对解压后文件进行配置修改。
tar -xvf assembly-0.5.0-SNAPSHOT-dist.tar.gz
(1)修改基础配置
vi /conf/config.sh
- 指定部署用户:deployUser
- 指定安装目录:LINKIS_INSTALL_HOME
- 指定日志存储路径:USER_LOG_PATH
- 指定结果集HDFS存储路径:RESULT_STORE_PATH
- 指定各个服务安装所在的机器IP地址和端口号:* _INSTALL_IP, * _PORT
(2)修改数据库配置
vi ./conf/db.sh
- 设置数据库的连接信息
- 包括IP地址、数据库名称、用户名、端口
- MYSQL_HOST=
- MYSQL_PORT=
- MYSQL_DB=
- MYSQL_USER=
- MYSQL_PASSWORD=
(3)执行安装脚本:
sh ./bin/install.sh
sh ./bin/start-all.sh