<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
Linkis 在上層應用和底層引擎之間構建了一層計算中介軟體。通過使用Linkis 提供的REST/WebSocket/JDBC 等標準介面,上層應用可以方便地連線存取Spark, Presto, Flink 等底層引擎,同時實現跨引擎上下文共用、統一的計算任務和引擎治理與編排能力。
MySQL/Spark/Hive/Presto/Flink 等底層引擎,同時實現變數、指令碼、函數和資原始檔等使用者資源的跨上層應用互通。作為計算中介軟體,Linkis 提供了強大的連通、複用、編排、擴充套件和治理管控能力。通過計算中介軟體將應用層和引擎層解耦,簡化了複雜的網路呼叫關係,降低了整體複雜度,同時節約了整體開發和維護成本。
沒有Linkis之前
上層應用以緊耦合方式直連底層引擎,使得資料平臺變成複雜的網狀結構
有Linkis之後
通過計算中介軟體將應用層和引擎層解耦,以標準化可複用方式簡化複雜的網狀呼叫關係,降低資料平臺複雜度
Linkis 在上層應用和底層引擎之間構建了一層計算中介軟體。通過使用Linkis 提供的REST/WebSocket/JDBC 等標準介面,上層應用可以方便地連線存取Spark, Presto, Flink 等底層引擎。
引擎 | 引擎版本 | Linkis 0.X 版本要求 | Linkis 1.X 版本要求 | 說明 |
Flink | 1.12.2 | >=dev-0.12.0, PR #703 尚未合併 | >=1.0.2 | Flink EngineConn。支援FlinkSQL 程式碼,也支援以Flink Jar 形式啟動一個新的Yarn 應用程式。 |
Impala | >=3.2.0, CDH >=6.3.0" | >=dev-0.12.0, PR #703 尚未合併 | ongoing | Impala EngineConn. 支援Impala SQL 程式碼. |
Presto | >= 0.180 | >=0.11.0 | ongoing | Presto EngineConn. 支援Presto SQL 程式碼. |
ElasticSearch | >=6.0 | >=0.11.0 | ongoing | ElasticSearch EngineConn. 支援SQL 和DSL 程式碼. |
Shell | Bash >=2.0 | >=0.9.3 | >=1.0.0_rc1 | Shell EngineConn. 支援Bash shell 程式碼. |
MLSQL | >=1.1.0 | >=0.9.1 | ongoing | MLSQL EngineConn. 支援MLSQL 程式碼. |
JDBC | MySQL >=5.0, Hive >=1.2.1 | >=0.9.0 | >=1.0.0_rc1 | JDBC EngineConn. 已支援MySQL 和HiveQL,可快速擴充套件支援其他有JDBC Driver 包的引擎, 如Oracle. |
Spark | Apache 2.0.0~2.4.7, CDH >=5.4.0 | >=0.5.0 | >=1.0.0_rc1 | Spark EngineConn. 支援SQL, Scala, Pyspark 和R 程式碼. |
Hive | Apache >=1.0.0, CDH >=5.4.0 | >=0.5.0 | >=1.0.0_rc1 | Hive EngineConn. 支援HiveQL 程式碼. |
Hadoop | Apache >=2.6.0, CDH >=5.4.0 | >=0.5.0 | ongoing | Hadoop EngineConn. 支援Hadoop MR/YARN application. |
Python | >=2.6 | >=0.5.0 | >=1.0.0_rc1 | Python EngineConn. 支援python 程式碼. |
TiSpark | 1.1 | >=0.5.0 | ongoing | TiSpark EngineConn. 支援用SparkSQL 查詢TiDB. |
因為mysql-connector-java驅動是GPL2.0協定,不滿足Apache開源協定關於license的政策,因此從1.0.3版本開始,提供的Apache版本官方部署包,預設是沒有mysql-connector-java-x.x.x.jar的依賴包,安裝部署時需要新增依賴到對應的lib包中。
Linkis1.0.3 預設已適配的引擎列表如下:
引擎型別 | 適配情況 | 官方安裝包是否包含 |
Python | 1.0已適配 | 包含 |
Shell | 1.0已適配 | 包含 |
Hive | 1.0已適配 | 包含 |
Spark | 1.0已適配 | 包含 |
引擎型別 | 依賴環境 | 特殊說明 |
Python | Python環境 | 紀錄檔和結果集如果設定hdfs://則依賴HDFS環境 |
JDBC | 可以無依賴 | 紀錄檔和結果集路徑如果設定hdfs://則依賴HDFS環境 |
Shell | 可以無依賴 | 紀錄檔和結果集路徑如果設定hdfs://則依賴HDFS環境 |
Hive | 依賴Hadoop和Hive環境 | |
Spark | 依賴Hadoop/Hive/Spark |
要求:安裝Linkis需要至少3G記憶體。
預設每個微服務JVM堆記憶體為512M,可以通過修改SERVER_HEAP_SIZE
來統一調整每個微服務的堆記憶體,如果您的伺服器資源較少,我們建議修改該引數為128M。如下:
vim ${LINKIS_HOME}/deploy-config/linkis-env.sh # java application default jvm memory. export SERVER_HEAP_SIZE="128M"
官網範例:
#JDK export JAVA_HOME=/nemo/jdk1.8.0_141 ##如果不使用Hive、Spark等引擎且不依賴Hadoop,則不需要修改以下環境變數 #HADOOP export HADOOP_HOME=/appcom/Install/hadoop export HADOOP_CONF_DIR=/appcom/config/hadoop-config #Hive export HIVE_HOME=/appcom/Install/hive export HIVE_CONF_DIR=/appcom/config/hive-config #Spark export SPARK_HOME=/appcom/Install/spark export SPARK_CONF_DIR=/appcom/config/spark-config/ export PYSPARK_ALLOW_INSECURE_GATEWAY=1 # Pyspark必須加的引數
範例:
https://linkis.apache.org/zh-CN/download/main
vi deploy-config/linkis-env.sh #SSH_PORT=22 #指定SSH埠,如果單機版本安裝可以不設定 deployUser=hadoop #指定部署使用者 LINKIS_INSTALL_HOME=/appcom/Install/Linkis # 指定安裝目錄 WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop # 指定使用者根目錄,一般用於儲存使用者的指令碼檔案和紀錄檔檔案等,是使用者的工作空間。 RESULT_SET_ROOT_PATH=file:///tmp/linkis # 結果集檔案路徑,用於儲存Job的結果集檔案 ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安裝路徑,需要部署使用者有寫許可權的本地目錄 ENTRANCE_CONFIG_LOG_PATH=file:///tmp/linkis/ #ENTRANCE的紀錄檔路徑 ## LDAP設定,預設Linkis只支援部署使用者登入,如果需要支援多使用者登入可以使用LDAP,需要設定以下引數: #LDAP_URL=ldap://localhost:1389/ #LDAP_BASEDN=dc=webank,dc=com
vi deploy-config/db.sh
執行安裝指令碼:sh bin/install.sh
install.sh指令碼會詢問您是否需要初始化資料庫並匯入後設資料。
因為擔心使用者重複執行install.sh指令碼,把資料庫中的使用者資料清空,所以在install.sh執行時,會詢問使用者是否需要初始化資料庫並匯入後設資料。
啟動服務
sh sbin/linkis-start-all.sh
檢視是否啟動成功
可以在Eureka介面檢視服務啟動成功情況,檢視方法:
使用http://${EUREKA_INSTALL_IP}:${EUREKA_PORT}
, 在瀏覽器中開啟,檢視服務是否註冊成功。
如果您沒有在config.sh指定EUREKA_INSTALL_IP和EUREKA_INSTALL_IP,則HTTP地址為:http://127.0.0.1:20303
預設會啟動8個Linkis微服務,其中圖下linkis-cg-engineconn服務為執行任務才會啟動
1、telnet
<-----start to check used cmd----> check command fail need 'telnet' (your linux command not found) Failed to + check env
解決:sudo yum -y install telnet
2、connection exception
mkdir: Call From hadoop01/192.168.88.111 to hadoop01:9820 failed on connection exception: java.net.ConnectException: 拒絕連線; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused Failed to + create hdfs:///tmp/linkis directory
解決:啟動HDFS
到此這篇關於Apache Linkis 中介軟體架構及快速安裝的文章就介紹到這了,更多相關Apache Linkis 中介軟體內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45