flink1.12怎么通过kerberos认证读取kafka数据

这篇文章主要讲解了“flink1.12怎么通过kerberos认证读取kafka数据”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“flink1.12怎么通过kerberos认证读取kafka数据”吧!

创新互联专业为企业提供句容网站建设、句容做网站、句容网站设计、句容网站制作等企业网站建设、网页设计与制作、句容企业网站模板建站服务,十余年句容做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。

说明

一般我们在使用kafka的时候很少经过kerberos认证,通过flink消费kafka数据的时候相对比较容易,一般很容易测通。

但是如果kafka有kerberos的认证,相对比较麻烦,结合官网进行说明。

官方文档

https://ci.apache.org/projects/flink/flink-docs-release-1.13/docs/connectors/datastream/kafka/

flink1.12怎么通过kerberos认证读取kafka数据

主要就是说明需要配置flink-conf.yml以及kafka的配置。

自己配置

flink1.12怎么通过kerberos认证读取kafka数据

这里面涉及三个文件user.keytab、jaas.conf和krb5.conf文件。把这个配置文件配置好后在设置kafka的属性就可以了。

kafka的属性如下:

      props.put("security.protocol", "SASL_PLAINTEXT");
      props.put("sasl.mechanism", "GSSAPI");
      props.put("sasl.kerberos.service.name", "kafka");

以上配置好,flink就可以提交任务进行kafka的消费了。

感谢各位的阅读,以上就是“flink1.12怎么通过kerberos认证读取kafka数据”的内容了,经过本文的学习后,相信大家对flink1.12怎么通过kerberos认证读取kafka数据这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


分享题目:flink1.12怎么通过kerberos认证读取kafka数据
网站地址:http://hbruida.cn/article/ieihjg.html