前言

Apache Hive 经过多年的发展,目前基本已经成为业界构建超大规模数据仓库的事实标准和数据处理工具,Hive 已经不单单是一个技术组件,而是一种设计理念。Hive 有 JDBC 客户端、支持标准 JDBC 接口访问的 HiveServer2 服务器、管理元数据服务的 Hive Metastore,以及任务以 Ma数据分析方法pReduce数据分析培训 分布式任务运行在 YARN 上。

标准的google翻译 JDBC 接口数据分析师、标数据分析报告准的 SQL 服务器、分布式任务执行以及元数据中心,这一系列组合让 Hive 完整地具备了构建一个企业级google翻译数据仓库的所有特性,并且 Hive 的 SQL 服务器是目前使用最广泛的标准服务器。

虽然 Hive 有非常明显数据分析培训的优点,可以找出完全替代 Hiappetiteve 的组件寥寥无几,但是并不等于 Hive 在目前阶段是一个完全满足企业业务要求的组件,很多时候选择 Hive 出发点并不是因为 Hive 很好地支持了企业需求,单安全单是因为暂时找不到一个能支撑企业诉求的替代服务。

企业级APP数仓构建需求

数仓架构通常是一个企业数据分析的起点,在数仓之下会再有一层数据数据分析软件湖,用来做apple异构数据的存储以及google翻译数据的冷备份。但是也有很多企业,特别是几乎完全以结构化数据为主的企业在实施上会把数据湖和企业数仓库合并,基于某个数仓平台合二为一。

企业在考虑构apple建自身数仓体系的时爬虫python候,虽然需要参考现有的行业技术数据分析师工作内容体系,以及可以选择的组件服务,但是不能太过数据分析于局限于组件本身,寻找 100%开箱即用的爬虫犯法吗产品。太过局限于寻找完全契合的组件服务必然受限于服务本身的实现google谷歌搜索主页,给未来扩展留下巨大的爬虫搜索引擎约束。爬虫python入门企业数据仓库架构必然不等于一个组件,大部分企业安全模式在数仓架构实数据分析师工作内容施的都是基于现有的部分方案,进行基于自己业务application合适的方向进行部分开发与定制,从而达到一个半自研的稳态,安全模式爬虫技术能跟上业务变化的速度,又不过于依赖和受限于组件自身的发展。

一般来说企业安全级数仓架构设计与选型的时候需要从以下几个维度数据分析师证书思考:

  • 开发的appearance便利性:所选择的数仓架构是否具安全教育平台登录入口有很好的安全教育日开发生态,可以提供不同类型的开发态接口,不限于 SQL 编辑器,代码提交,以及第三方工具整合。google翻译
  • 生态:所选择实现引擎自身是否有很好的生态功能,或者是否可以很好的与其他服务集成,例如数据湖引擎 delta lake,icebeg,hudi 等优秀组件出现,但是 Hive 集成的节奏爬虫软件是干什么的却非常慢。
  • 解耦程度:分布式任务必然需要多个组件的协调,例如分布式存储,资源管理,调度等,像 Hive 就重度依赖于 YARN 体系,计安全教育平台登录算引擎也与 MR 强安全教育平台登录入口绑定,在解耦方面较apple弱,如果企业考虑在安全教育日 K8S 上构建自己的计算引擎,Hive 面临的局限会更加明显。
  • 性能:整体架构是否google服务框架拥有更好的性能。
  • 安全:是否支持不同级别,不同安全教育平台登录入口力度安全教育平台登录的用户访问和数据安全鉴权体系。

对于企业数仓架构来说,最重要的是如何基于企业业务流程来设计架构,而不是基于某个组件来扩展google服务框架架构。

SparkSQL 在企业级数仓建设的优势

一个企业数仓的整体逻辑如上图所示,数仓在构建的时候通常需要 ETL 处理和分层设计,基于业务系统采集的结构化和非结构化数据进行各种 ETL 处理成为 DWD 层,再基于 DWD 层设计上层的数据模型层,形成google谷歌搜索主页 DM,中间会有 DWB/DWS 作为部分中间过程数appetite据。

技术选安全教育平台登录入口来说,从数据源的 ETL 到数据模型的构建通常需要长时任务,也就是整个任务的运行时间通常是小时及以上级别。而 DM 层主要是支持业务的需求,对时效性要求比较高,通常运行在 DM 层上的任务时间以分钟作为单位。

基于如上的分层设计的架构图可以发现,虽然目前有非常多的组件,像 Presto、Doris、ClickHouse、Hive 等等,但是这些组件各自工作在不同的场景下,像数仓构建和交互式分析就是两个典型的场景。

交互式分析强调的是时效性,一个查google谷歌搜索主页询可以快速出结果,像 Presto、Doris、Clic爬虫技术抓取网站数据kHouse 虽然也可以处理海量数据,googleplay甚至达到 PB 及以上,但主要还是用在交互式分析上,也就是基于数据仓库的 DM 层,给用户提供基于业务的交互式分析查询,方便用户快速进行探索。由于这类引擎更聚焦在交互式分析上,因此对于长时任务的支持度并不友好,为了达到快速获取approach计算结果,这类引擎重度依赖内存资源,需要给这类服务配置很高的硬件资源,这类组件通常有着如下约束:

  • 没有任务级的重application试,失爬虫python入门败了只能重跑 Query,代价较高。
  • 一般全内存计算,无 shu安全教育平台登录ffle 或 shuf安全教育平台fle 不落盘,无法执行海量数据。
  • 架构为了查询速度快,执行前已经调度好了 task 执行的节点,节点故障无法重新调度。

一旦发生任务异常,例如网络抖动引起的任务失败、机器宕机引起的节点丢失,再次重试所消耗的时间几乎等于重新提交一个任务。在分布式任务的背景下,任务运googleplay行的时间越长,出安全教育平台作业登录现错误的概率越高。对于此google商店类组件的安全教育平台作业登录使用,业界最佳实践的建议也是不超过 30 分钟左右查询使用这类引擎是比较合适的APP

而在离线数仓场景下,几乎所有任务都是长时任务,也就是任务运行时长在小时级以爬虫是什么上,这时就要求执行 ETL 和构建数仓模型的组件服务需要具有较高的容错性和稳定性,当任务发生错误时可以以低成本的方式快速恢复,尽可能避免因为部分节点状态异常导致整个任务完全失败。

可以发现在这样的诉求下类似于 Presto、Doris、ClickHousegoogle商店 就很难满足这样的要求,而像Hive、Spark这类计算引擎依托于 Yarn 做资源管理,对于分布式任务安全期计算器的重试安全教育平台、调度、切换有着非常可靠的保证。Hive、Spark爬虫 等组件自身基于可重算的数据落盘机制,确保某个节点appointment出现故障或者部分任务失败后可以快速进行恢复。数据保存于 HDFS 等分布式存储Google系统上,自身不管理数据,具有极高的稳定性和容错处理机制

反过来,因为 Hive、Spark 更善于处理这类批处理的长时安全教育日任务,因此这类组件不擅长与上层安全模式的交互式分析,对于这种对时效性要求更高的场景,都不能很好地满足。所以在考APP虑构建数仓的时候,通常会选择 Hiappreciateve、Spark 等组件来负责,而在上层提供交互式分析查询的时候,通常会使用 Presto、Doris、ClickHouse 等组件。

归纳如下:

  • Presto、Doris、ClickHouse:更注重交互式分析,对单机资源配置要求很高,重度依赖内存,缺爬虫python入门乏容错恢复,任apple务重安全试等机制,适合于 30 分钟以内的任务,通常工作在企业的 DM 层直接面向业务,处理业务需求。
  • Hive、Spark:更注重任务的稳定性,对网络,IO 要求比较高,有着完善的中间临时文件落盘,googleplay安卓版下载节点任务失爬虫技术败的重试恢复,更加合适小时级以上的长时任务运行google服务框架,工作在企业的的 ETL 和数据模型构建层,负责清洗和加工上层业务所需要的数据,用来支撑整个企业的数仓安全教育日构建。

一个数据分析师工作内容企业在实施数据平台的时候,安全教育平台登录入口由多个安全教育日不同组件各自工作在不同的appstore架构层中,无法相互取代,相互协作配合,承载整个企业的数据平台业务。

企业级数仓技术选择

Google 发表的三篇论文从存储、计算、检apple索三个方向阐述了海量数据下一种新的分布式数据加工处理技术,这三个方向被雅虎 Nutch 团队实现后贡安全工程师献给 Apache,也就是目前大家看到的HDFS、MapReduce 和 HBase,形成了早期 HadoopAPP 的三大利器。

然而这三大利器更聚焦在异构数据的信息提取处理上,没有提供对结构化数据很友好的类似 SQL 语法的分析入口,同时在编程态的支撑也不够友好,只有 Map 和 Reduc爬虫技术e 两阶段,严安全教育日重限制了业务处理的实现,雅虎团队也是爬虫相关业务孵化而出,可以看出 Ha爬虫pythondoop 早期的三大套件有着如下特点:

  • 门槛高,需要编程实现,并且编程态受限于 MapReduce 的两阶段约束。
  • 以离散数据处理为主,对分析能力、查询google翻译等常用数据分析功能支持不足。
  • 没有交互式客户端,无法实现交互式探索。

Hive 就是诞生在这样的较大的行业背景appointment下,Hive 的出现刚好弥google谷歌搜索主页补了 Hadoop 只能用来做离线数据处理这个缺google服务框架,提供googleplay安卓版下载了一种常用的分析接口,并且提供了非常爬虫搜索引擎好的用户交互方式。

SparkSQL 在企业级数仓建设的优势

Hive 整体架构如上图所示,Hive 提供 JDBC 接口实现支持以编程形式进行交互,同时业内几乎所google中国有 SQL Client、开源或商业 BIGoogle 工具都支持通过标准 JDBC 的方式连接 Hive,可以支持数据安全生产法探索的动作,极大地丰富了大数据生态圈下的组件多样性,同时也降低了使用门槛,可以让熟悉 SQL 的人员低成本迁移。

基于这些设计非常好的特效,加上 Hive 经过多年的逐步完善,发展到今天已经安全教育日是一个非常稳定成熟的生产环境可用的数据仓库组件,甚至替代品都很难找到,因此使用 Hive 作为数据仓库的构建基础是一个非常好的选择。

SparkSQL 在企业级数仓建设的优势

如上图所数据分析师工作内容示,其安全生产法中有很多优点:

  • 稳定:稳定性是 Hiv爬虫e 一个非常让人称道的特性,很多时候虽然 Hive 的性能,计算速度不及其他引擎,但是 Hive 的稳定性却一直是非常好的。
  • 低门槛:只需要掌握基本的 SQL 技能,便可使用 Hive 进行开发,相比其他分布式计算引擎引擎成本安全生产法更低。
  • 生态丰富:Hi爬虫python入门ve 和 Hadoop 生态圈紧数据分析报告密结合,而 Hive 自身的 Metastore 也成了大数据生态圈内的标准元数据服务,大部分引擎都支持google中国直接Google适配 MetaStore。
  • 扩展方便:Hive 自身的 UDF 机制可以appearance快速基于业务需要扩展功能。
  • 安全:Hive 支持 Kerbero爬虫技术抓取网站数据s/LDAP 多种认证方式,并且和 Ranger 结合可以做到更细粒度的行列权限级别,拥有较好的数据安全。
  • 集成成本低:MapReduce 只支持安全编程态的接口,并且不支持迭代计算,Hive 封装了 MapReduce 提供 SQL 的接口,可以很低成本的和上层数据挖掘,数据分析安全教育手抄报工具进行集成。

所以,虽然apple Hive 出现已application经有很长时间了,但依旧是数仓构建的首选,在整个数仓构建中随处可见 Hive 的身影。尽管 Hive 有种种优点,让人难以割舍,但是并不等于能很好地支撑企业业务需求。很多时候选择 Hive 仅仅是因为暂时没有其他可选的组件,如果自己从头开发一个google浏览器,或者基于某安全生产法个组件改造,成本又数据分析会远超企业预期,因此不得不继续选择使用 Hgoogle商店ive。

基于实践来看,Hive 在构建企业数仓过程中存在的主要局限围绕在以下几个方面:

  • 性能:Hive 基于 MapReduce 虽然带来了非常好的稳定性,同时也降低了它的性能,虽然有 TEZ 做一定的优化,但是与同类的计算引擎 Spark 相比依旧有非常大的差距。
  • 资源配置:由于 Hive 底层使用 MapReduce 作为计算引擎,而 MapReduce 对 SQL 不友好,因此 Hive 在 HiveServerappearance2 层面实现了 SQL 的转换处理,再生成基于 MapReduce 的物理计划,从而导爬虫致 HiveSeGooglerver2 需要非常高的配置,才能维持足够好的稳定性。
  • 并发:Hive 的并发受限于 HiveS安全教育平台登录erver2,企业需要维护多个高配的 HiveServer2 实例才能支持更好的并非,通常 Hive 的瓶颈都在 HiveServer2 而不是更底层的爬虫是什么分布式计算。
  • 容错成本:Hive 基于 HiveServer2 进行 SQL 的分析处理,多个 HiveServer2 之间相互独立不共享信息,因此当 HiveServer2 挂掉后,整数据分析师个 HiveServer2 的任务都会结束,approach需要客户端自行重试,为整个作业级别的容错重启。
  • 事务支持:Hive 的事务设置在 HiveServer2 上,一旦 HiveServer2 实例开启事务后,整个通过该 HivappetiteeServer2 的请求都会开启事务,整个事务成本过高。
  • 部署:如果企业的计算引擎部署是基于 K8S 等容器架构,Hive on K8S 将会带来非常google谷歌搜索主页大的部署成本。

虽然 Hive 在以上局限层面也做了很多尝试(Hive On Spark),但是受限于 Hive 的架构,HiveServer2 自身有自己的 SQL 解析引擎,为了兼容架构将解析后的结果直接翻译成 Spark 最底层的接口,整体性能反而提升不appreciate大。

除了 Hive 之外,还有非常多其他的优秀组件。然而,从企业数仓技google浏览器术选型的视角来看,适合用来构建数据仓库的,目前只有Hive 和 Spark SQL相对更加合适,在这两个组件中,Spark SQL 相爬虫软件对 Hive 的优势又更加明显。

SparkSQL 如何支撑企业级数仓

Spark 引擎因为自身强大的生态和方便的编程接口被广泛应用在数据处理场景下,Spark 提供的Spark SQL 模块更是为使用 Spark 支撑企业数据仓库提供了一个良好的基础设施。

SparkSQL 在企业级数仓建设的优势

如上图所示,一个典型的数据仓库架构需要包含不同层次的模型构建。由于数据量大、数据结数据分析师证书构异构等多种原因,大数据架构下的企业数仓构建抛弃了基于关爬虫技术系型数据库下的 Cube 设计,直接采用基于分布式任务进行处理来构建多层数据模型。因此对于构建企业数仓的服务来说,有着如安全期计算器下要求:

  • 支持长时任务,通常是小时以上,天级别居多。
  • 支持多任务,也就是高并发。
  • 稳定性必须被保障。
  • 速度快。
  • 支持 SQL 的交互式接口。
  • 易于集成。
  • 支持任务的重跑和容错以及快google服务框架速任务失败恢复。

基于以上特性可以发appear现,在目前可选择的组件范Google围内,Spark SQL 相比其他组件(乃至googleplay Hive)更加适合承担这类任务。但是很多企业在进行架构设计的时候割舍不掉 Spark SQL 带来apple的丰富特性,安全教育平台登录入口又愁于 Spark SQL 缺乏类似 Hive 这样的 SQL 服务器,于是退而求其次变成Hive 与 Spark SQL 两个组件共存的形态,Hive 退化为仅仅数据分析师工作内容提供 MetaStore 服务,因此从很多实践的现象来看,Hive安全教育平台登录 构建企业数仓已是过去式,采用 Spark S安全工程师QL 进行数据数据分析师工作内容仓库的构建是众多的选择。

SparkSQL 在企业级数仓建设的优势

如上图数据分析的四个步骤所示,企业在构建数仓的时候,通过一安全教育平台登录入口Spark SQL Server提供基于 SQL 接口的常驻服务,同时也可以采用 Spark Submit 的方式直接提交 Jar 任务去运行,既能达到提供标准 SQL 交互式接口,又能提供更灵活的编程态接口。

从不同的企业级数仓构建视角来看,Hive 带来的约束都越来越大,而 Spaappointmentrk SQL 的成熟度和发展趋势已经完全具备取代 Hive 来构建整个数爬虫python仓,Spark SQL 的优势集中体现在如下方面:

  • 丰富的生态:Spark 不仅可以和很多APP组件集成,其自身拥有生态已经涵盖各个方面,从数据分析到机器学习和图计算。
  • 开放:Spark 架构设计上非常开放,可以快速整合其他产品,例如相比 Hive,在集成 Iceb数据分析观念erg,Hudi 等特性方面就会开放很多。
  • 部署:Spark 既可以部署爬虫犯法吗在 ECS 虚爬虫软件拟机上,也可部署在 K8S 架构上,多种部署形态非常灵活。
  • 性能:Spgoogleark 的机制的流批处理性能爬虫技术非常合适用来构建企业数仓。
  • 易于开发:Spark SQL 既有 SQLappear 接口,也支持灵活的可迭代编程接口,非常方便不同场景下的数据开发安全模式
  • 安全:Spark SQL 可和不同的安全服务集成,实现细粒度的鉴权。

因此,完全基于使用 Spark SQL 来爬虫技术抓取网站数据支撑企业级的数仓是完全可行的,并且在目前也被众多企业实践验证。

SparkSQL 在企业级数仓建设的优势

如上图所示,一个基于 Spark S安全工程师QL 构建的企业数仓架构逻辑架构设计上包含以上几个部分,每一个 Spark SQL 引擎都是一个服务器,Spark爬虫软件 SQL 引擎将自己的信息注册到 Zookeeper 中,SQL 服务器基于 Zookeeper 中的 Spark SQL 引擎来执行客户端过来的请求,SQL 服务器是一个兼容 Hive JDBC 接口的服务器,在googleplay使用 Spark SQL安全教育平台作业登录 来支撑数仓构建的时需要重点考虑的实施点是:

  • 如何提供一个交互服务用来支撑不同的客户端来连接数据分析观念,包括交互式的 beeline,以及编程态的 JDBC 和工具接口。
  • 如何打通权限对接,如果是 Ranger 的话需要的是 Spark SQL Ranger Plugin。
  • 如何支持跨多个队列的任务提交。

使用 Spark SQL 支撑企业级数仓的核心之处还是在于如何提供一个好用的任务服务器,用来支撑任务的管理。任务管理服务器在逻辑上与 HiveServer2 相似,但是更加的爬虫软件轻量,没有 HiveServe2 中复杂而繁重的 SQL 解析,同时又没有 Spark Thrift Server 这种自身就爬虫技术是一个 YARN 作业的约束。企业可以基于自身的业务流程,开发一个轻量的服务器,在这方面字节有非常深的实践经验,同时也有自己的 Spark SQL 引擎服务器,可关注后续的动态。同时业界安全教育日也有其他企业做了类似的工作,例如网易开源的 Kyuubi。

SparkSQL 在企业级数仓建设的优势

Kyuubi整个架构图如上所示,Kyuubi 基于 Spark SQL 之上,较好地弥补了 Spark Thrift Sgoogle商店erver 在多租户、资源隔离和高可用等方面的不足,是一个真正可以满足大多数生产环境场景的开源项目。但是 Kyuubi 在设计时考虑的是如何弥补 Spark Thrif安全教育平台作业登录t Server 的不足,目的在于增强 Spark SQL 的能力,而不是对等设计一个可以替换 Hive 组件的服务。因此对于遗留项目来说迁移成本爬虫较高,安全Spark SQL 与 Hive 有着两套不兼容的 SQL,在使用 Kyuubi 的时候如何降低遗留系统的迁移成本将是一个非常大的工作量appreciate

而行业也有开源的 Spark Thrigoogle翻译ft Server,该思路是非常优秀的,但是因为开发过程中有点太过于局限安全教育平台登录,导致依旧存在很多爬虫python入门问题,google中国主要体现在:

  • Driver 单点:整个 Spark thrift server 以一个 Spark 任务的形式运行在 YARN 上,所有的请求都运行在一个 Driv数据分析师证书er 中,一旦 Driver 挂掉后,所有安全工程师任务都会同时失败。
  • 资源隔离:因为 Spark thrift server 是以 Sp安全期计算器ark 任务的形式运行在 YARN 上approve,因此提交的任务如果有跨队列提交需求的时候,Spark thrift server 很难支撑,其次多个任务运行在同一个 D安全生产法river 之中,资源使用会相互影响,很难更精细appstore化的进行资源的管理。
  • 多租户:Spark thrift server 从请求层面是可以支持多用户的,但是从架构层面来看 Spark thrift server 是一个运行在 Yarn 上数据分析软件的任务,它也有自己的 Applicappointmentation Id 有自己的任务提交者,因此它实际上是以一个超级管理员的身份运行,再做二次租户隔离,必然存在一定的资源安全问题。
  • 高可用:Spark thrift server 本身是没有高可用涉及的,因此它的高可用安全教育日需要自行单独设计,且还得考虑客户端的兼容,例如 Hive JDBC 将 HA 信息存储在 ZK 中,而 Spark thrift server 没有这google服务框架样的机制,因此高可用的实施成本较高。

因此虽然 Spark 提供了 Spark thrift server 服务数据分析师工作内容用来提供类似 JDgoogle中国BC 这样的接口交互appetite方式,但是目前依旧缺乏很多生成功能,导致在生产环境使用的情况非常少,Spark thrift server 更像是一个小众的半成品,小修小补地尝试着解决部分问题,但是没有给予一个彻底的方案,导致现在有点缺乏实际的生产应用。

字节跳动 EMR 产品在 Spark SQL 的优化实践

数据湖引擎集成

Hudi、Igoogle谷歌搜索主页ceberg 等数据湖引擎目前使用的越来越广泛,很多 B 端客户google翻译在使用 Spark SQL 的时候也存在需要使用数据湖引擎的需求,因此字节 EMR 产品需要将数据湖引擎集成到 Spark SQL 中,在这个过程中遇到了非常多的问题。

数据分析方法先在与 Iceberg 集成的时候,对体验和易用googleplay的问题进行了优化,用户在使用 Spark SQL 过程安全教育手抄报中,需要手动输入很多指令,并且需要找到对应的 spark-iceberg 依appearance赖包,这个也是目前集成 Ic安全教育平台作业登录eberg 最常用的方案。我们的解决方式爬虫犯法吗是在预先安装的过程中,提前把 iceberg 的相关 jar 包放到 spark jars 目录下,这样用户只需要指定 catalog 即可,无需再手动输出很多指令。

其次在 Spark 与 Hive跨引擎分析场景下使用 Iceberg,Spark 正常创建表,Presto/Trono 可以正常application读写,但 Hive 无法正常读写,这个问题官方的文档也没有清晰的描述,解决方案是需要修改 Spark 的配置文件或者修改 H爬虫是什么ive 的 hive-site-spark overridegoogle浏览器 配置,确保初始化出来的 Spark Session 中的配置项 iceberg.engine.hive.enable 的值为 true,Hive 才能正常地读取 Spark 创建的表。

SparkSQL 在企业级数仓建设的优势

问题本质上是由于 Iceberg 为了支持 Hive 引擎,在整体的设计上做了爬虫犯法吗一些妥协,使用了 Sto安全教育日rage Handle爬虫软件r 的安全教育手抄报方式去实现 Hive 对 IcebeAPPrg 格式的表的读写,需要显式的指定 Hive 的 Input/Out安全教育日put Format 实现,而 Presto/Trono 则可以基于 Hive 的 format_type 自动识别表的格式进行识别。

兼容性上,由于数据分析软件 Iceberg 0.12 版本不支持 Spark 3.2,由于升级 Spark 的影响范围非常大,于是更新了 Iceberg,使用了社区的一个 mas爬虫软件是干什么的ter 的 snapshot 版本进行编译,与 Spark 3.2 进行集成。

Spark SQL爬虫 服务器

虽然行业针对 Spark SQL 提供一个 SQL 服务器已经有 Spark Thrift Server 或者 Kyuappearubi 这样的工具,但是在某些 B 端客户google网站登录入口的业务背景下,这些工具并不能完全满足要求,因此字节跳动 EMR 团队自己设计实现了 Spark SQL Server,主要聚焦解决的是如下场景:

  • 兼容 Hive 语义:由于大部分 B 端客户早期是基于 Hive 构建的数据仓库,后续逐步全部替换为 Spark SQL,中间必然面临大量的系统迁移,而由于 Hive 与 SparkAPP SQL 语义不尽相同,重写 SQLgoogle网站登录入口 实现的工作量非常大,因此在字节 EMR 产品中的 Spark SQL Server 中实现 Hive 语义和 Spark SQL 语义的兼容,在实现方案上采用的时候讲 Hive SQL 解析注入到 Spark 引擎中,形成一个 SQL Parser Chain,最终会匹配到某一个解析器,实现对 SQL 的解析,从而达到对整个 SQL 语义的兼容爬虫是什么
  • 提前初始化 Spar数据分析师证书k SQL 引擎:在业务请求到达前提前在 YARgoogle翻译N 上提交 Spark 任务,初始化资源信息,让整个引擎处于等待的状态,可以减少任务提google商店交消耗的时间,在用户较approve多的情况下可以提示appearance整体的任务执行时间。
  • 跨 Yarn 队列的任务提交:用户可以指定 Yarn 队列执行任务。

SparkSQL 在企业级数仓建设的优势

如上图所示,SQL 服务器是一个实现了 Thrift 接口的爬虫python入门服务器,提数据分析师供标准的 JDBC 访问接口,Spark SQL 引擎同样实现了 Thrift 接口,Spark SQL 引擎在服务启动的时候便已经被提交至 Yarn,处于等待状态。当业务任务到达的时候,由 SQL 服务器实现引擎的筛选,匹配一个已经存在的引擎,或者重新提交一个全新的引擎用来执行任务。

SQL 服务器支持google谷歌搜索主页 OpenLDAP、Kerberos 等常用的权限认证,同时支持多种不同的隔离级别,例如 Session 级别则每一个业务 SQ安全教育平台登录L 都会初始化一个 Spark SQL 引擎用来接收任务,任务执行结束后,引擎从 Yarn 中销毁。而 User 级别则针对用户会初始性 0-N 个引擎,常驻于 Yarn 中,处于交替执行任务。

这样的服安全教育平台登录务器设计打破了 Spark Thrift Server 的单 Driver 所带来的局限,解耦了 SQL 服务和任务执行。也就支持更细粒度的资源管理和跨队列的任务提交。

同时也兼容了 Hive 的接口,用户可以通过如下方式访问服务器:

  • HA 访问链接:
./bin/beeline-u"jdbc:hive2://emr-5fqkwudj144d2gc1k8hi-master-1/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=midas/ha;auth=LDAP"-nemr_dev-pEMR123456emr
  • 非 HA 访问链接:
./bin/beeline-u"jdbc:hive2://emr-master-2:10005/default;auth=LDAP”-ntest_sub-pEMR123456emr

HA 模式下的信息被记appearance录在 Zookeeper 中,保存的内容格式与 HiveServer2 的内容一致,能确保使用 Hive 的客户端可以直接访问 HA 模式下的服务器。

Spark SQL 多租户

SparkSQL 在企业级数仓建设的优势

在 Hive 任务执行过程中,HiveServer2 服务承担了提供 SQL 服务器进行用户身份认证、权限判断,以及解析 SQL 生成最爬虫python终的执行计划,再由 MR 引擎执行具体的分布式任务。

在这个过程中HiveServer2承担了非常重的职责,因此需要消耗非常大的资源,因此会很大程度的影响用户的并发。对于分布式任务运行来说,它的资源约束来自于google翻译 Yarn 作为资源管理器所分配的资源,但是在 Hive 架构下却受限于 HiveServer2 的安全教育平台登录安全教育日响,导致用户并发的数量无法随着google网站登录入口 Yarn 资源的提升而提升。

而在Spark SQL 引google浏览器中,SQL 解析是下推到引擎内部,与具体的分布式任务执行合为一体,不需要单独的服务器去做 SQLappearance 解析。也正因为 Spark SQL 与 Hive 在解析模块的架构存在差异,Hive On Spark 的模式会变得非常难。

安全模式对如上的场景,字节跳动 EMR 团队重新google中国设计的 SQL 服务安全只负责任务的接收,进行用户资源、权限和身份的判断,然后将任务发送给运行在 Yarn 中的 Spark SQL 服务器。打破了 Hive 这种并发受制于 HiveServer2 和 Yarn 两层约束的局面,只由 Yarn 的资源决定用户的并发程度,从而极大的降低了 Spark SQL 服务器的资源需求,增强了其稳定性,在用户并发上有了非常大的提升。

其次通爬虫技术抓取网站数据引擎预热的功appstore能减少任务执行的时间,提升整体速度,引擎预热指的是在服务启动的时候便向 Yarn 提交 Spark SQL 引擎,处于等安全待的状态,当业务请数据分析求到达的时候,基于业务类型从已经处于就绪的引擎中选择一个引擎来执行任务。

SparkSQL 在企业级数仓建设的优势

并不是每一个预热提交的引擎都会被选择安全教育平台作业登录执行,在 SQL 服务器中存在如下三种引擎隔离级别:

  • Session:基于每一个 connection 都会全新提交 Spark SQL 引擎,在链接断数据分析师开后,引擎从 Yarn 上销毁。
  • User:同一个用户可以共享多个 Spark SQL 引擎,具体的 Spark SQL 引擎个数由该用户提交的任务资源需求决定,引擎在连接断开后不会销毁,直到引擎空闲时长到达上限。
  • Open:所有用户都可共享的 Spark SQL 引擎,通常是用来应对大账号,或者集群不需要做权爬虫python入门限管理的场景。

由此可见只有在 User、Open 的级别下引擎预热才会产生价值,预热省去了 Spark Submit 的时间,当用户数量足够多,群体为统计单位所节省的时间越多。

Spark SQ爬虫搜索引擎L 事务支持

Hive 的事务力度是基于 HiveServer2 实现的,例如通过如下语法:

CREATETABLEtm(aint,bint)storedasorcTBLPROPERTIES
('transactional'='true','transactional_properties'='insert_only')

可开启事务,但是由于对事务的管理是appetite在服务器上,因此需要开启 ACID 的时候受影响的是整个 HiveServer2 的所有请求,而 Spark SQL 很好地集成和支持了 Hudi,Iceberg 等数据湖格式,因此在 Spark SQL数据分析的四个步骤 服务器中不爬虫搜索引擎需要实现类似 HiappetiteveServer2 的事务机制,只需要在最终读取处理数据的时候,采用 Hudi、Iceberg 等特性便可达到支持approve事务的效果。

例如爬虫技术对于爬虫犯法吗 Icdberg 数据格式的表已支持 update、delete 操作:

MERGEINTOprod.nyc.taxisptUSING(SELECT*FROMstaging.nyc.taxis)stONpt.id=st.idWHENNOTMATCHEDTHENINSERT*;

因此当 Spark SQL 集成了 Iceberg 后,便具有了事务能力,再配合 SQL 服务器,便可在很低的成本上具有和 Hive 事务能力同等的效益,同时也没有 Hive 下的一些约束,从这样的架数据分析报告构设计上来看,能够完整地爬虫软件替换 Hive。另外一个方面当用户数量变多,同时数据会发生修改、更新等操作,很容易造大量的小广播传输,从而引起 Driver 的OOM。虽然大广播也会存在 O爬虫技术抓取网站数据OM 的google中国问题application,但是大广播可以通过阈值控制,而小广播阈值对其不生效,一旦说数量变多,很容易引起 Driver 的 OOM。字节 EMR 团队通过对小广播进行合并广播,解决大量小广播进行传播,导致打爆 Driver 的情况出现。

尾声

随着企业的业务发展越来越复杂,需要approve更加灵活、更加高效的数仓架构,在这样approach的业务驱动背景下,Hive 的局限变得越来越明显,而基于 Spark SQL 灵活构建数仓的方案将会变得越来越主google网站登录入口。所以企业在考虑数据仓库构建体系的时候,可以考虑如何基于 Spark SQL 构建自身数据体系,Spark 完善和开放的生态在未来必然会有更多优秀的服务围绕 Spark 形成强大的优势。