Flink SQL与 SQL Parser ,calcite】的更多相关文章

http://vinoyang.com/2017/06/12/flink-table-sql-source/ Flink Table&Sql 如何结合Apache Calcite http://ju.outofmemory.cn/entry/335371 http://wuchong.me/blog/2017/03/30/flink-internals-table-and-sql-api/ Stream Processing for Everyone with SQL and Apache Fl…
本文翻译自官网:https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/ Flink Table Api & SQL 翻译目录 一直没有用 flink 的 table 或 sql api,最近开始要使用这部分功能了,先把官网对应的文档翻译一遍,方便自己慢慢查看 ----------------------------------------------- Apache Flink 具有两个关联 API-Table…
本文翻译自官网:https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/common.html Flink Table Api & SQL 翻译目录 Table API和SQL集成在共同API中.该API的中心概念是Table,用作查询的输入和输出.本文档介绍了使用Table API和SQL查询的程序的通用结构,如何注册 Table,如何查询Table以及如何发出 Table(数据). 两个 planner 之间…
本文翻译自官网:SQL https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/sql.html Flink Table Api & SQL 翻译目录 这是Flink 支持的 数据定义语言(DDL) 和数据操纵语言的完整列表. 查询 指定查询 支持语法 操作 DDL 指定 DDL 创建表 删除表 Data Types Reserved保留关键字 查询 SQL查询使用TableEnvironment 的 sqlQu…
概述 Flink具有Table API和SQL-用于统一流和批处理. Table API是用于Scala和Java的语言集成查询API,它允许以非常直观的方式组合来自关系运算符(例如选择,过滤和联接)的查询. Flink的SQL支持基于实现SQL标准的Apache Calcite.无论输入是批处理输入(DataSet)还是流输入(DataStream),在两个接口中指定的查询都具有相同的语义并指定相同的结果. Table API和SQL尚未完成所有功能,正在积极开发中,支持程度需查看 官方文档…
本文翻译自官网:Streaming Concepts  https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/streaming/ Flink Table Api & SQL 翻译目录 Flink的Table API和SQL支持是用于批处理和流处理的统一API.这意味着Table API和SQL查询具有相同的语义,无论它们的输入是有界批处理输入还是无界流输入.因为关系代数和SQL最初是为批处理而设计的,所以对无…
Flink 官网 Table Api & SQL  相关文档的翻译终于完成,这里整理一个安装官网目录顺序一样的目录 [翻译]Flink Table Api & SQL —— Overview [翻译]Flink Table Api & SQL —— 概念与通用API [翻译]Flink Table Api & SQL —— 数据类型 [翻译]Flink Table Api & SQL —Streaming概念 [翻译]Flink Table Api & SQ…
本文翻译自官网:Streaming Aggregation  https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/tuning/streaming_aggregation_optimization.html Flink Table Api & SQL 翻译目录 SQL是用于数据分析的最广泛使用的语言.Flink的Table API和SQL使用户能够以更少的时间和精力定义高效的流分析应用程序.而且,Flink…
本文翻译自官网:Configuration https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/config.html Flink Table Api & SQL 翻译目录 默认情况下,Table&SQL API已预先配置为产生具有可接受性能的准确结果. 根据表程序的要求,可能需要调整某些参数以进行优化.例如,无界流程序可能需要确保所需的状态大小是有上限的(请参阅流概念). 总览 执行选项 优化器选项…
本文翻译自官网:Use Hive connector in scala shell  https://ci.apache.org/projects/flink/flink-docs-release-1.9/dev/table/hive/scala_shell_hive.html Flink Table Api & SQL 翻译目录 Flink Scala Shell 是尝试 flink 的便捷方法. 您也可以在 scala shell 中使用 hive,而不是在pom文件中指定 hive 依赖关…