DSS安装——linkis安装

一、确定您的安装环境

Linkis根据安装的难易程度,分为以下三种环境的准备方式:

1精简版:

    最少环境依赖,单节点安装模式,只包含Python引擎,只需要用户Linux环境支持Python即可。

    请注意:精简版只允许用户提交Python脚本。

2简单版:

    依赖Python、Hadoop和Hive,分布式安装模式,包含Python引擎和Hive引擎,需要用户的Linux环境先安装好了Hadoop和Hive。

    简单版允许用户提交HiveQL和Python脚本。

3标准版

    依赖Python、Hadoop、Hive和Spark,分布式安装模式,包含Python引擎、Hive引擎和Spark引擎,需要用户的Linux环境先安装好了Hadoop、Hive和Spark。

    标准版允许用户提交Spark脚本(包含SparkSQL、Pyspark和Scala)、HiveQL和Python脚本。 请注意:安装标准版需要机器内存在10G以上 如果机器内存不够,需要修改每个服务的启动脚本的默认内存,如:linkis-ujes-spark-engineManager/bin/start-spark-enginemanager.sh修改DWS_ENGINE_MANAGER_HEAP_SIZE的默认大小

二、简单班Linkis环境安装

a. 基础软件安装

    下面的软件必装:
	MySQL (5.5+),如何安装MySQL
	JDK (1.8.0_141以上),如何安装JDK
	Python(2.x和3.x都支持),如何安装Python
    Hadoop(社区版和CDH3.0以下版本都支持)
    Hive(1.2.1,2.0和2.0以上版本,可能存在兼容性问题)
发布了44 篇原创文章 · 获赞 0 · 访问量 987

猜你喜欢

转载自blog.csdn.net/qq_39122146/article/details/103613679