news 2026/2/24 16:01:04

Iceberg在Hadoop集群使用步骤(适配AI大模型)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Iceberg在Hadoop集群使用步骤(适配AI大模型)

Iceberg在Hadoop集群使用步骤

Cloudera Data Platform(CDP集群中使用Apache Iceberg,需结合 CDP 的集成能力(如 Spark 3、Hive Metastore、Catalog 支持等)。以下是完整、可操作的使用步骤(适用于CDP Private Cloud Base/Experience 7.1.7+CDP Public Cloud,截至 2025 年):


一、前提条件

1. CDP版本要求

  • CDP Private Cloud:7.1.7 SP1 或更高(推荐 7.2+)
  • CDP Public Cloud:已启用Data Engineering (DE)Data Warehouse (DW)环境
  • 已安装Spark 3.x(Iceberg 仅支持 Spark 3+)

2.组件依赖

组件

要求

Spark

≥ 3.1(推荐3.2+

Hive Metastore

必须运行(Iceberg默认使用Hive Catalog

存储

HDFS / S3A / Ozone(需配置访问权限)

Cloudera Manager

≥ 7.7.3Private Cloud

⚠️ 注意:CDP不支持 Nessie Catalog(截至 7.2),仅支持Hive Catalog


🔧二、启用 Iceberg支持(CDP Private Cloud

步骤 1:在 Cloudera Manager中配置 Spark启用 Iceberg

  • 登录Cloudera Manager Web UI
  • 进入Spark 3 → Configuration
  • 搜索 spark.sql.extensions
    • 添加值:org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions
  • 搜索 spark.sql.catalog.spark_catalog
    • 设置为:

org.apache.iceberg.spark.SparkSessionCatalog

  • 搜索 spark.sql.catalog.spark_catalog.type
    • 设置为:hive
  • (可选)设置默认仓库路径:
    • spark.sql.catalog.spark_catalog.warehouse = hdfs://nameservice1/warehouse/iceberg

💡 提示:上述配置将spark_catalog设为 Iceberg 的 Hive Catalog,使 CREATE TABLE 默认创建 Iceberg 表。

步骤 2:重启 Spark服务

  • 在 CM 中重启 Spark 3 History Server和 Gateway

🧪三、使用 Iceberg(通过 Spark SQL

方式 1:在 Spark Shell / Beeline / Hue中操作

1.启动 Spark SQL客户端

Bash:

#在 CDP集群节点执行

spark3-sql --conf spark.sql.extensions=org.apache.iceberg.spark.extensions.IcebergSparkSessionExtensions \

--conf spark.sql.catalog.spark_catalog=org.apache.iceberg.spark.SparkSessionCatalog \

--conf spark.sql.catalog.spark_catalog.type=hive

2.创建 Iceberg

Sql:

-- 创建数据库(如果不存在)

CREATE DATABASE IF NOT EXISTS iceberg_db;

-- 使用数据库

USE iceberg_db;

-- 创建 Iceberg 表(自动识别为 Iceberg 格式)

CREATE TABLE customer (

id BIGINT,

name STRING,

email STRING,

ts TIMESTAMP

) USING iceberg

PARTITIONED BY (days(ts));

✅ 关键:USING iceberg 显式指定格式(即使配置了默认 catalog 也建议写明)

3.写入数据

Sql:

INSERT INTO customer VALUES

(1, 'Alice', 'alice@example.com', current_timestamp()),

(2, 'Bob', 'bob@example.com', current_timestamp());

4.查询与 Time Travel

Sql:

-- 普通查询

SELECT * FROM customer;

-- 查看快照历史

SELECT * FROM customer.history;

-- 时间旅行查询(按快照 ID)

SELECT * FROM customer VERSION AS OF 123456789;

-- 或按时间戳

SELECT * FROM customer FOR TIMESTAMP AS OF '2025-12-17 10:00:00';

5. Schema Evolution(安全改表结构)

Sql:

-- 添加列

ALTER TABLE customer ADD COLUMN phone STRING;

-- 删除列(CDP 7.2+ 支持)

ALTER TABLE customer DROP COLUMN email;


📁四、目录结构与元数据位置

Iceberg 表在 HDFS/S3 上生成标准目录结构:

/warehouse/iceberg/

└── iceberg_db.db/

└── customer/

├── metadata/

│ ├── snap-123456789-1-a1b2c3d4.metadata.json

│ ├── v1.metadata.json

│ └── ...

└── data/

└── dt=2025-12-17/

└── xxx.parquet

  • metadata/:存储快照、manifest、schema 变更历史
  • data/:实际数据文件(Parquet/ORC)

🔍 可通过 DESCRIBE FORMATTED customer; 查看表路径和格式。


⚙️五、高级功能(CDP支持情况)

功能

CDP支持

说明

Row-Level Delete

7.2+

DELETE FROM customer WHERE id = 1;

Merge IntoUpsert

Spark 3.2+,语法:MERGE INTO ... WHEN MATCHED THEN UPDATE ...

Time Travel

完整支持VERSION AS OF / TIMESTAMP AS OF

Partition Evolution

ALTER TABLE ... SET PARTITION SPEC (...)

Replication Manager复制

7.1.7 SP1+

通过RM复制Iceberg表(需选"Replicate using metadata files"

Trino/Presto查询

Private Cloud

CDP Private Cloud默认不集成TrinoPublic Cloud可通过DW查询


🛠六、常见问题排查

问题

解决方案

报错:Cannot find catalog spark_catalog

检查Spark配置是否包含spark.sql.catalog.spark_catalog=...

CREATE TABLE仍是Hive

确认是否写了USING iceberg,或检查spark_catalog是否被覆盖

权限拒绝(Permission denied

确保用户对/warehouse/iceberg有读写权限(HDFS ACL / S3 Policy

Kerberos认证失败

Spark提交时添加--keytab--principal


📚官方参考文档

  • Cloudera Docs: Using Iceberg Tables in CDP
  • CDP Public Cloud: Iceberg with Data Engineering

总结:CDP中使用 Iceberg的核心流程

1.配置 Spark启用 Iceberg扩展 + Hive Catalog
2.通过 Spark SQL创建 USING iceberg
3.使用标准 SQL进行 INSERT/UPDATE/DELETE/TIME TRAVEL
4.利用 Replication Manager实现灾备同步(可选)

Iceberg 在 CDP 中已深度集成,是构建湖仓一体(Lakehouse架构的首选格式。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/22 15:17:40

最简单的LangChain和RAG

ollama的API:https://docs.ollama.com/api/ps ollama的API:https://github.com/ollama/ollama/blob/main/docs/api.md?utm_sourcechatgpt.com Ollama API ├── 推理类(最常用) │ ├── /api/generate ← 单轮生成 │ …

作者头像 李华
网站建设 2026/2/23 21:19:55

空压机监控运维管理系统方案

行业背景 我国制造业近年来经历了迅猛的发展,这一进程离不开各式各样动力设备的支持与推动。其中,空压机作为大型通用机械设备,在钢铁、电力、冶金、造船、纺织、电子、装备制造等多个关键领域发挥着不可或缺的作用。其长期稳定运行不仅是高…

作者头像 李华
网站建设 2026/2/24 5:08:14

实习面试题-Rust 面试题

1.Rust 有哪些特点?它和 C、C++ 有什么区别? 回答重点 Rust 是一门系统编程语言,最大的特点就是在保证高性能的同时,通过编译器在编译期就能保证内存安全。简单来说,Rust 既有 C/C++ 那样的性能,又不会出现 C/C++ 那些令人头疼的内存问题。 Rust 的核心特点包括所有权…

作者头像 李华
网站建设 2026/2/22 11:38:58

视频字幕精确生成方法 用到字幕api开发文档

视频字幕精确生成方法 用到字幕api开发文档 本文档将详细介绍如何调用 /api/stt/audiototexturls 接口完成音频转文字,并基于接口返回的时间轴数据生成 SRT 等格式的精准字幕,帮助开发者快速实现相关功能。 一、接口核心信息梳理 你需要调用的是一个支持…

作者头像 李华
网站建设 2026/2/21 20:27:15

SPA 应用中的路由切换内存泄漏:未注销的 Scroll 监听与全局变量

SPA 应用中的路由切换内存泄漏:未注销的 Scroll 监听与全局变量大家好,我是你们的技术讲师。今天我们来深入探讨一个在现代前端开发中非常常见却又容易被忽视的问题——单页应用(SPA)中的内存泄漏问题,特别是由 未注销…

作者头像 李华