前言
在上一篇我们通过代码演示了如何使用Flink Table Api 从外部的CSV文件中读取数据,然后输出到新的CSV文件中去;
本篇将继续探讨Flink Table Api 的相关使用,要分享的是利用Flink Table Api 读取来自kafka某个topic的数据,然后输出展示到控制台中;
结合实际业务场景来说,尤其是针对很多大数据的场景,kafka作为一个性能优异的消息中间件,被广泛使用,一个很常见的业务场景就是,上游应用将处理完毕的数据写出到kafka的某个topic中,flink程序做进一步的业务处理,然后输出到文件、或者数据库、或者继续写出到新的topic下;
前置准备
1、安装并启动zookeeper服务;
2、安装并启动kafka服务,单机或集群都可以;
3、提前创建一个topic,这里提前创建一个名叫 “zcy222″的topic ;
1、读取kafka数据,输出到控制台
核心代码如下:
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.DataTypes;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.java.StreamTableEnvironment;
import org.apache.flink.table.d
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
文章由极客之音整理,本文链接:https://www.bmabk.com/index.php/post/143297.html