Home

Calcite-6:使用 SQL 分析博客文章

博客里的文章,命名和规则都比较有规律。现在工作里 SQL 接触非常多,今天突然在想用 SQL 分析一把博客文章,介绍下 calcite . 1. 文章数据结构化 文章结构化的数据,可以粗略提炼出以下结构: 标题:从文章内容提取 title 字段 发布时间:从文章内容提取 date 字段 tags: 从文章内容提取 tags 字段 url: 从文件名提取 直接上代码: case class PostMeta(url: String, title: String, date: String, tags: String) { def toArray: Array[AnyRef] = Array(url, title, date, tags) } object...

Read more

Flink - Native Flink On Kubernetes 集群启动流程

这篇笔记主要介绍 Flink 任务使用 Application Mode 提交到 K8S 集群的流程,使用 flink 1.12 版本说明。 Flink 任务的启动流程,简言之分为三步: 提交任务:不同 Mode(Application/PerJob/Session)的区别主要是用户代码是否在这一步执行. 启动 JobManager: 跟 Resource Provider(YARN/K8S)申请资源、运行用户代码、初始化 TM 等。 启动 TaskManager:执行 JM 指定的具体算子,与 JM 保持心跳。 由于这些开源项目代码变动很快,因此我尽量从 why 的角度,同时忽略代码间类调用的细节,通过一些重点代码介绍。 1. 提交 无论是 PerJob 还是...

Read more

2023年个人总结

1. 工作 2023年花了很大的精力,把自研的任务调度系统迁移到了 DolphinScheduler. 原有的调度系统使用 PHP 开发,非常古老,可能比公司成立时间还要早。如果放到十年前看,有很多可圈可点之处。但是近几年只能勉强维护,新的功能需求,开发两周,再加两周补开发带来的 bug. 由于离线任务调度系统的高峰是在凌晨,迁移过程熬夜挺多。也总结了一些经验,发表在了 https://mp.weixin.qq.com/s/smsNDH2MYpoys-qWz4O0Sg 22年总结实时计算时,担心 Flink 任务动态扩缩这个项目,很多收尾的工作,由于人力撤出导致盘点不全。23年这块还是出了一些问题,值得反思的地方很多。进一步的,如果提前处理了,问题就不会发生,但是价值如何自证?...

Read more

JDBC

1. JDBC 定义 Java Database Connectivity (JDBC) 定义了一套访问数据库的 API. Java Database Connectivity (JDBC) is an application programming interface (API) for the Java programming language which defines how a client may access a database.1 好处是几乎可以使用完全相同的代码,访问不同的数据库:MySQL、Hive、Doris、Presto 等等。 定义在 package java.sql,主要包含了 DriverManager Driver Connection...

Read more

大数据列存储文件格式

文件存储格式,即数据在磁盘上是如何组织的,比如 leveldb 的 sst 文件由 DataBlock、FilterBlock、IndexBlock、Footer 等组成。这种格式的设计,适应了单机写多读少、读取新写入数据的场景。 1. 大数据为何偏爱列存储 Apache ORC、Apache Parquet 都是典型的列存储格式,大数据的场景,为何偏爱列存储? 首先无论场景如何变化,从单机到大数据,面临的磁盘性能是一致的,引用 Jeff Dean 演讲的数据1: Latency Comparison Numbers (~2012) Operation Time in Nano Seconds ...

Read more

linkedin/coral 代码速读

前几天纷飞的大雪还未消融,周末又赶上降温。于是踏实关在屋里,快速读了一遍 linkedin/coral1 的代码,这篇笔记记录下整体流程。 1. 背景:SQL 重写的需求 大数据领域,随着数据量变大、时效性要求越来越多样化,SQL 计算引擎也越来越多,从原来的 HiveSQL,到如今的 Presto/Trino、Flink、Spark。同时,随着 storage format、table format、table schema 各个方向的精细发展,SQL 的形式也越来越多,短期内也很难出现事实上的统一标准。 SQL 往往需要在不同执行计算引擎间变更,比如: 分析师的 HiveSQL 运行很慢,希望能够修改为 TrinoSQL 执行 数仓工程师的 HiveSQL,希望能够统...

Read more

漫谈数据血缘系统

微服务间调用链路要清晰,才能方便的进行后续的架构升级、核心链路演练等。大数据里的表/任务之间也是如此,同时由于任务量大,血缘系统的设计更加重要。 这篇笔记记录下我理解的数据血缘系统。 1. 使用场景 大数据很多功能都会依赖血缘,例如: 数据开发:任务的修改、下线,影响产出表的操作,依赖血缘周知下游 数据治理:通过血缘分析数据间的冗余依赖、是否存在依赖环 数据资产:计算表的使用热度(血缘的入度、出度)、展示字段来源 数据质量:字段质量的归因分析(上游) 因此数据血缘系统应当作为大数据的基石来建设。 2. 如何评价 血缘做的好坏,评价标准有三点: 准确率:表关系(输入、输出)、字段关系 覆盖率:覆盖的任务、存储类型 响应时间:血缘数据复杂,需要...

Read more

如何用 ANTLR 解析和重写SQL

1. 简介 ANTLR(ANother Tool for Language Recognition)1是一个强大的 parser generator,可以根据规则生成 parser 代码,用于读取、处理、执行和翻译结构化或二进制数据。Hive/Trino/Spark/Flink/Doris/… 等常见大数据组件都用到了 ANTLR. 如果要实现 C++ 代码的解析器,需要提取出其中的变量、常量、关键字、注释;解析 JSON ,需要提取出{} [] '";解析 SQL、Protobuf 也是如此。 解析完成后,还需要能够遍历结果树,判断语法是否正确。 ANTLR 使用通用的方式解决了这一点,并对应分成两个步骤: LEXER: 输入流解析为 tokens PARSER: t...

Read more