Linkis 构建了一层计算中间件,方便上层应用与底层数据引擎之间的连接、治理和编排
Linkis 在上层应用程序和底层引擎之间构建了一层计算中间件。通过使用 Linkis 提供的 REST/WebSocket/JDBC 等标准接口,
上层应用可以方便地连接访问 MySQL/Spark/Hive/Presto/Flink 等底层引擎,同时实现变量、脚本、函数和资源文件等用户资源的跨上层应用互通。
作为计算中间件,Linkis 提供了强大的连通、复用、编排、扩展和治理管控能力。通过计算中间件将应用层和引擎层解耦,简化了复杂的网络调用关系,
降低了整体复杂度,同时节约了整体开发和维护成本。
Linkis 自 2019 年开源发布以来,已累计积累了 700 多家试验企业和 1000+沙盒试验用户,涉及金融、电信、制造、互联网等多个行业。
许多公司已经将 Linkis 作为大数据平台底层计算存储引擎的统一入口,和计算请求/任务的治理管控利器。
- 丰富的底层计算存储引擎支持
- 目前支持的计算存储引擎 Spark、Hive、Flink、Python、Pipeline、Sqoop、openLooKeng、Presto、ElasticSearch、JDBC 和 Shell 等
- 正在支持中的计算存储引擎 Trino(计划 1.3.1)、SeaTunnel(计划 1.3.1) 等
- 支持的脚本语言 SparkSQL、HiveQL、Python、Shell、Pyspark、R、Scala 和 JDBC 等
- 强大的计算治理能力 基于 Orchestrator、Label Manager 和定制的 Spring Cloud Gateway 等服务,Linkis 能够提供基于多级标签的跨集群/跨 IDC 细粒度路由、负载均衡、多租户、流量控制、资源控制和编排策略 (如双活、主备等) 支持能力
- 全栈计算存储引擎架构支持 能够接收、执行和管理针对各种计算存储引擎的任务和请求,包括离线批量任务、交互式查询任务、实时流式任务和存储型任务
- 资源管理能力 ResourceManager 不仅具备对 Yarn 和 Linkis EngineManager 的资源管理能力,还将提供基于标签的多级资源分配和回收能力,让 ResourceManager 具备跨集群、跨计算资源类型的强大资源管理能力
- 统一上下文服务 为每个计算任务生成 context id,跨用户、系统、计算引擎的关联管理用户和系统资源文件(JAR、ZIP、Properties 等),结果集,参数变量,函数等,一处设置,处处自动引用
- 统一物料 系统和用户级物料管理,可分享和流转,跨用户、系统共享物料
- 统一数据源管理 提供了 hive、es、mysql、kafka 类型数据源的增删查改、版本控制、连接测试等功能
- 数据源对应的元数据查询 提供了 hive、es、mysql、kafka 元数据的数据库、表、分区查询
引擎名 | 支持底层组件版本 (默认依赖版本) |
Linkis 版本要求 | 是否默认包含在发布包中 | 说明 |
---|---|---|---|---|
Spark | Apache 2.0.0~2.4.7, CDH >= 5.4.0, (默认 Apache Spark 2.4.3) |
>=1.0.3 | 是 | Spark EngineConn, 支持 SQL, Scala, Pyspark 和 R 代码 |
Hive | Apache >= 1.0.0, CDH >= 5.4.0, (默认 Apache Hive 2.3.3) |
>=1.0.3 | 是 | Hive EngineConn, 支持 HiveQL 代码 |
Python | Python >= 2.6, (默认 Python2*) |
>=1.0.3 | 是 | Python EngineConn, 支持 python 代码 |
Shell | Bash >= 2.0 | >=1.0.3 | 是 | Shell EngineConn, 支持 Bash shell 代码 |
JDBC | MySQL >= 5.0, Hive >=1.2.1, (默认 Hive-jdbc 2.3.4) |
>=1.0.3 | 否 | JDBC EngineConn, 已支持 MySQL 和 HiveQL,可快速扩展支持其他有 JDBC Driver 包的引擎, 如 Oracle |
Flink | Flink >= 1.12.2, (默认 Apache Flink 1.12.2) |
>=1.0.3 | 否 | Flink EngineConn, 支持 FlinkSQL 代码,也支持以 Flink Jar 形式启动一个新的 Yarn 应用程序 |
Pipeline | - | >=1.0.3 | 否 | Pipeline EngineConn, 支持文件的导入和导出 |
openLooKeng | openLooKeng >= 1.5.0, (默认 openLookEng 1.5.0) |
>=1.1.1 | 否 | openLooKeng EngineConn, 支持用 Sql 查询数据虚拟化引擎 openLooKeng |
Sqoop | Sqoop >= 1.4.6, (默认 Apache Sqoop 1.4.6) |
>=1.1.2 | 否 | Sqoop EngineConn, 支持 数据迁移工具 Sqoop 引擎 |
Presto | Presto >= 0.180, (默认 Presto 0.234) |
>=1.2.0 | 否 | Presto EngineConn, 支持 Presto SQL 代码 |
ElasticSearch | ElasticSearch >=6.0, ((默认 ElasticSearch 7.6.2) |
>=1.2.0 | 否 | ElasticSearch EngineConn, 支持 SQL 和 DSL 代码 |
Impala | Impala >= 3.2.0, CDH >=6.3.0 | ongoing | - | Impala EngineConn,支持 Impala SQL 代码 |
MLSQL | MLSQL >=1.1.0 | ongoing | - | MLSQL EngineConn, 支持 MLSQL 代码. |
Hadoop | Apache >=2.6.0, CDH >=5.4.0 |
ongoing | - | Hadoop EngineConn, 支持 Hadoop MR/YARN application |
TiSpark | 1.1 | ongoing | - | TiSpark EngineConn, 支持用 SparkSQL 查询 TiDB |
请前往Linkis Releases 页面 下载 Linkis 的已编译版本或源码包。
更详细的步骤参见:
## 后端编译
注意:如果使用 -Dlinkis.build.web=true 来构建web镜像,需要首先执行 管理台 linkis-web 的编译
### Mac OS/Linux 系统
# 1. 首次编译,请执行如下命令
./mvnw -N install
# 2. 构建 Linkis 部署包
# - 选项 1: 仅构建 Linkis 服务部署包
./mvnw clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
# - 选项 2: 构建 Linkis 服务部署包和 Docker 镜像
# - 选项 2.1: 构建的镜像中不包含 mysql jdbc 包
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
# - 选项 2.2: 构建的镜像中包含 mysql jdbc 包
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.with.jdbc=true
# - 选项 3: 构建 Linkis 服务部署包和 Docker 镜像(包括 Web 控制台)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true
# - 选项 4: 仅构建 Linkis 服务部署包和 Docker 镜像(包括 Web 控制台和 LDH 镜像,LDH 镜像包换了多个预先配置和部署好的 Hadoop 组件,主要面向测试用途)
./mvnw clean install -Pdocker -Dmaven.javadoc.skip=true -Dmaven.test.skip=true -Dlinkis.build.web=true -Dlinkis.build.ldh=true -Dlinkis.build.with.jdbc=true
### Windows 系统
mvnw.cmd -N install
mvnw.cmd clean install -Dmaven.javadoc.skip=true -Dmaven.test.skip=true
## 管理台编译
cd linkis/linkis-web
npm install
npm run build
由于MySQL的许可协议限制,官方发布的 Linkis 镜像没有集成 MySQL JDBC 驱动。 然而,在现阶段,Linkis 仍然依赖这个库才能正常运行。 为了解决这个问题,
我们提供了一个脚本,它可以帮助你快速的基于官方的 Linkis 镜像创建一个集成了MySQL JDBC 的自定义镜像。 这个工具创建的镜像默认的名称是 linkis:with-jdbc
。
$> LINKIS_IMAGE=linkis:1.3.1
$> ./linkis-dist/docker/scripts/make-linikis-image-with-mysql-jdbc.sh
请参考快速安装部署 来部署 Linkis
-
完整的 Linkis 文档代码存放在linkis-website 仓库中
-
Meetup 视频 Bilibili
Linkis 基于微服务架构开发,其服务可以分为 3 类:计算治理服务、公共增强服务和微服务治理服务。
- 计算治理服务,支持计算任务/请求处理流程的 3 个主要阶段:提交-> 准备-> 执行
- 公共增强服务,包括上下文服务、物料管理服务及数据源服务等
- 微服务治理服务,包括定制化的 Spring Cloud Gateway、Eureka、Open Feign
下面是 Linkis 的架构概要图. 更多详细架构文档请见 Linkis-Doc/Architecture.
我们非常欢迎和期待更多的贡献者参与共建 Linkis, 不论是代码、文档,或是其他能够帮助到社区的贡献形式。
代码和文档相关的贡献请参照贡献指引.
- 对 Linkis 的任何问题和建议,可以提交 issue,以便跟踪处理和经验沉淀共享
- 通过邮件方式 dev@linkis.apache.org
- 可以扫描下面的二维码,加入我们的微信群,以获得更快速的响应
我们创建了一个 issue [Who is Using Linkis] 以便用户反馈和记录谁在使用 Linkis.
Linkis 自 2019 年开源发布以来,累计已有 700 多家试验企业和 1000+沙盒试验用户,涉及金融、电信、制造、互联网等多个行业。