首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

flink-sql 流计算可视化 UI 平台

一、简介 flink-streaming-platform-web系统是基于flink封装的一个可视化的web系统,用户只需web界面进行sql配置就能完成流计算任务, 主要功能包含任务配置、启/停任务...目的是减少开发,完全实现flink-sql 流计算任务 支持本地模式、yarn-per模式、STANDALONE模式 支持udf、自定义连接器等,完全兼容官方连接器 目前flink版本已经升级到1.12.../flink-1.11.1-bin-scala_2.11.tgz 然后解压 a: /flink-1.11.1/conf 1、YARN_PER模式 文件下面放入hadoop客户端配置文件 core-site.xml.../blob/master/docs/sql/flink_web.sql c:修改数据库连接配置 /flink-streaming-platform-web/conf/application.properties...: udf地址 udf地址 只支持http并且填写一个 如:http://xxx.xxx.com/flink-streaming-udf.jar 地址填写后 可以sql语句里面直接写 CREATE

2K10
您找到你想要的搜索结果了吗?
是的
没有找到

UDF不应有状态 切入来剖析Flink SQL代码生成 (修订版)

问题结论 结论是:Flink内部对SQL生成了java代码,但是这些java代码针对SQL做了优化,导致某种情况下,可能 会对 "SQL本应只调用一次" 的UDF 重复调用。...我们SQL时候,经常会在SQL只写一次UDF,我们认为运行时候也应该只调用一次UDF。 对于SQLFlink是内部解析处理之后,把SQL语句转化为Flink原生算子来处理。...Flink内部生成的这些代码Flink会在某些特定情况下,对 "SQL本应只调用一次" 的UDF 重复调用。...所以UDF_FRENQUENCY就被执行了两次:WHERE执行了一次,SELECT又执行了一次。...的引用 FunctionCatalog Flink,Catalog是目录概念,即所有对数据库和表的元数据信息都存放再Flink CataLog内部目录结构,其存放了flink内部所有与Table相关的元数据信息

2.7K20

UDF不应有状态 切入来剖析Flink SQL代码生成

问题结论 结论是:Flink内部针对UDF生成了java代码,但是这些java代码针对SQL做了优化,导致某种情况下,可能 会对 "SQL本应只调用一次" 的UDF 重复调用。...我们SQL时候,经常会在SQL只写一次UDF,我们认为运行时候也应该只调用一次UDF。 对于SQLFlink是内部解析处理之后,把SQL语句转化为Flink原生算子来处理。...Flink内部生成的这些代码Flink会在某些特定情况下,对 "SQL本应只调用一次" 的UDF 重复调用。...所以UDF_FRENQUENCY就被执行了两次:WHERE执行了一次,SELECT又执行了一次。...关于FlatMap,请参见我之前的文章:[源码分析] 从FlatMap用法到Flink的内部实现 我们后文中主要就是排查SQL生成流程哪里出现了这个"UDF多次调用的问题点"。

1.6K20

flink教程-flink modules详解之使用hive函数

modules概念 通过hive module使用hive函数 内置函数 自定义函数 sql 客户端的使用 原理分析和源码解析 实现 modules概念 flink 提供了一个module的概念,使用户能扩展...如果是sql 客户端使用,还需要实现ModuleFactory接口,因为加载的时候,flink会使用SPI机制去匹配获取相应的ModuleFactory,然后实例化相应的moudule。...将带有 UDF 的 jar 包放入 Flink classpath ,并在代码引入。.../src/main/java/modules/HiveModulesTest.java sql 客户端的使用 sql-client-defaults.yaml里配置相关的模块,然后就可以使用了. #...之后是一堆if else判断,Hive UDF 和 GenericUDF 函数会自动转换成 Flink 的 ScalarFunction,GenericUDTF 会被自动转换成 Flink 的 TableFunction

1.5K30

FlinkSQL内置了这么多函数你都使用过吗?

前言 Flink Table 和 SQL 内置了很多 SQL 中支持的函数;如果有无法满足的需要,则可以实现用户自定义的函数(UDF)来解决。...SQL 中支持的很多函数,Table API 和 SQL 都已经做了实现,其它还在快速开发扩展。 以下是一些典型函数的举例,全部的内置函数,可以参考官网介绍。...在下面的代码,我们定义自己的 HashCode 函数, TableEnvironment 中注册它,并在查询调用它。... SQL ,则需要使用 Lateral Table(),或者带有 ON TRUE 条件的左连接。 下面的代码,我们将定义一个表函数,表环境中注册它,并在查询调用它。...数据准备 hello|word,hello|spark hello|Flink,hello|java,hello|大数据老哥 编写代码 package udf import org.apache.flink.streaming.api.scala

2.6K30

Zeppelin整合Flink采坑实录

Flink问:虽然我提供了多种语言支持,有SQL,Java,Scala还有Python,但是每种语言都有自己的入口,用户很难多种语言混着用。...比如在sql-client只能运行Sql,不能写UDFpyflink shell里,只能用python的udf,不能用scala和java的udf。有没有谁能帮我把这些语言全部打通。...Flink问:我的Sql已经很强大了,但是用户sql-client里不能写comment,而且不支持运行多条sql语句,有谁能帮我把这些功能补齐下。 Zeppelin答:我可以。...0.9 preview 整合flink,只能使用 Apache Flink 1.10.1 for Scala 2.11 ,不能使用scala2.12 环境: 实验的话,需要在linux下尝试,windows...FLINK_HOME interpret里设置FLINK_HOME,指向你的Flink,切记1.10.1 scala2.11版本 Kafka Connect Datagen 使用提供的

1.7K20

Flink SQL on Zeppelin - 打造自己的可视化Flink SQL开发平台

我们之前的文章详细介绍过Zepplin的来龙去脉,很多大厂基于Flink开发了自己的SQL开发平台。更多的公司可能需要选择一种低成本接入,尽量复用开源的解决方案答案快速支撑业务发展。...,总不能让每个人都在自己电脑上配上Flink客户端吧?...ververica目前也推出了一个Sql客户端Flink SQL Gateway+flink-jdbc-driver,将两者结合使用,也能够很好的构架一个纯Sql的开发平台。...自定义UDF Flink,使用代码注册UDF有两种方式: tEnv.registerFunction("test",new TestScalarFunc()); tEnv.sqlUpdate("CREATE...通过编写Scala代码,然后通过上面两种方式注入。flink.execution.jars加载指定Jar加载进Flink集群,之后通过上面两种方式注册UDF

4.5K31

Flink - 自己总结了一些学习笔记

的配置为准,默认是 1 1.2 Source 1.2.1 基于本地集合的source 一个本地内存,生成一个集合作为Flink处理的source。...中有类似于spark的一类转换算子,就是transform,Flink的编程体系,我们获取到数据源之后,需要经过一系列的处理即transformation操作,再将最终结果输出到目的Sink使数据落地...Table API 是 SQL 语言的超集并专门为 Apache Flink 设计的,Table API 是 Scala 和 Java 语言集成式的 API。...与常规 SQL 语言中将查询指定为字符串不同,Table API 查询是以 Java 或 Scala 的语言嵌入样式来定义的,具有 IDE 支持如:自动完成和语法检测;允许以非常直观的方式组合关系运算符的查询...Flink SQL 的支持是基于实现了SQL标准的 Apache Calcite。

89410

Flink入门学习笔记

的配置为准,默认是 11.2 Source1.2.1 基于本地集合的source一个本地内存,生成一个集合作为Flink处理的source。...中有类似于spark的一类转换算子,就是transform,Flink的编程体系,我们获取到数据源之后,需要经过一系列的处理即transformation操作,再将最终结果输出到目的Sink使数据落地...Table API 是 SQL 语言的超集并专门为 Apache Flink 设计的,Table API 是 Scala 和 Java 语言集成式的 API。...与常规 SQL 语言中将查询指定为字符串不同,Table API 查询是以 Java 或 Scala 的语言嵌入样式来定义的,具有 IDE 支持如:自动完成和语法检测;允许以非常直观的方式组合关系运算符的查询...Flink SQL 的支持是基于实现了SQL标准的 Apache Calcite。

83030

Flink SQL 成神之路(全文 18 万字、138 个案例、42 张图)

4.SQL UDFFlink Table\SQL API 允许用户使用函数进行数据处理、字段标准化等处理。 4.1.SQL 函数的归类 Flink 的函数有两个维度的归类标准。...4.2.SQL 函数的引用方式 用户 Flink 可以通过精确、模糊两种引用方式引用函数。...目前 Flink 自定义函数可以基于 JVM 语言(例如 Java 或 Scala)或 Python 实现,实现者可以 UDF 中使用任意第三方库,本章聚焦于使用 Java 语言开发自定义函数。...Scala object 实现 UDFScala object 是单例的,有可能会导致并发问题。...内置函数解决不了用户的复杂需求,用户就需要自己写 Hive UDF,并且这部分自定义 UDF 也想在 flink sql 中使用。 下面看看怎么 Flink SQL 中进行这两种扩展。

2.9K21

Flink重点难点:Flink Table&SQL必知必会(二)

& SQL的一些核心概念,本部分将介绍 Flink 窗口和函数。...窗口的定义 我们已经了解了Table API里window的调用方式,同样,我们也可以SQL中直接加入窗口的定义和使用。...一些系统内置函数无法解决的需求,我们可以用UDF来自定义实现。 5.1 注册用户自定义函数UDF 大多数情况下,用户定义的函数必须先注册,然后才能在查询中使用。...SQL,则需要使用Lateral Table(),或者带有ON TRUE条件的左连接。 下面的代码,我们将定义一个表函数,表环境中注册它,并在查询调用它。...例如,用户可以使用HiveCatalog将其 Kafka 表或 Elasticsearch 表存储 Hive Metastore ,并后续 SQL 查询重新使用它们。

1.9K10

数据分析小结:使用流计算 Oceanus(Flink) SQL 作业进行数据类型转换

Flink SQL 可以说是对 ELT 模式的一种支持,避免了使用 Java/Scala/Python 编程语言进行开发的复杂性。...本文主要对数据转换过程 Flink SQL 作业中常用的类型转换函数进行了总结。  常用类型转换函数 CAST(value AS type)   将某个值转为 type 类型。 ...返回值可以 CASE 语句中作为条件使用。 ...我们也可以通过用户自定义函数(UDX):自定义标量函数(UDF)、自定义表值函数(UDTF)、自定义聚合函数(UDAF)来完成更复杂的 Flink SQL 作业的数据处理工作,具体参考之前的文章 Flink...(UDF):https://cloud.tencent.com/developer/article/1946320 流计算 Oceanus 限量秒杀专享活动火爆进行↓↓ 点击文末「阅读原文」,了解腾讯云流计算

1.4K20
领券