ApacheFlinkTableAPI和SQLAPI的外部数据源是什么

小编给大家分享一下Apache Flink Table API和SQL API的外部数据源是什么,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

成都创新互联公司是一家集网站建设,青州企业网站建设,青州品牌网站建设,网站定制,青州网站建设报价,网络营销,网络优化,青州网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。

“Apache Flink的Table API与SQL API实现对接外部数据源的方式是Table connector直连外部数据源,Tabel connector将外部的数据源读取到Flink中进行计算或者把Apache Flink的结果写入到外部数据源之中。”

Apache Flink的Table API与SQL API在之前已经提到了Table Source与Table Sink的方式对实现数据源的注册于结果的写入等。Apache Flink已经基本实现了对于的数据源的注册于写入的需求,但是仍然不够灵活,用户更加希望的可能是通过配置的方式实现对于不同数据源的选择,并且实现数据的写入。所以Apache Flink又提供了Table connector。

Table connector的实现不仅仅能够更好的API与SQL Client,同时Table connector类似与实现了CREATE TABLE 的方式对数据进行了注册,能够实现再不修改代码的情况下实现把数据写入不同的位置。Tabel connector方法指定了需要连接Table connector对应的Descriptor,withFormat方式指定了输出或输入的文件格式(csv,JSON,Parquet等)。withSchema方法指定了注册在TableEnvironment中的表结构。

tableEnv.connect(...)
.withFormat(...)
.withSchema(...)
.inAppendMode() //更新模式
.registerTableSource("MyTable")

通过以上方式注册数据源后,我们可以直接把数据读取或者写入到该表中。也就是说我们可以实现类似于像操作DBMS表的数据一样操作该表进行数据读取与写入。

在当前的很多云场景中,类似于阿里云,华为云等均提供了实时计算的产品,产品使用SQL的方式进行注册,注册指定云厂商的其他产品与存储格式等 withSchema ,指定读取的数据结构 withSchema 与更新的模式等即可实现数据的读取或计算结果的写入。

CREATE TABLE datahub_stream(
name VARCHAR,
age BIGINT,
birthday BIGINT
) WITH (
type='产品',
endPoint='...',
project='...',
topic='...'
...
);

我们在使用时涉及的步骤也大致分为这些,如下代码。connect方法指定了连接对应的Desciriptor,withFormat指定输出或输入的文件格式,例如JSON,CSV,Avro等。withSchema用以指定注册在TableEnvironment中的表结构。inAppendMode指定了数据的更新模式。最终通过registerTableSource方法将本次外部数据源注册到TableEnvironment中,用以进行查询计算。

talbEnv.connect(...)
.withFormat(...)
.withSchema(...)
.inAppendMode()
.registerTableSource("TableName")

以上是“Apache Flink Table API和SQL API的外部数据源是什么”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注创新互联行业资讯频道!


分享题目:ApacheFlinkTableAPI和SQLAPI的外部数据源是什么
当前路径:http://hbruida.cn/article/cjggch.html