部署Spark UDF插件

  1. 在所有节点的“~/.bashrc”文件中添加如下环境变量。

    export OMNI_HOME=/opt/omni-operator

  2. 将UDF依赖的JAR放置到HDFS的“/user/hive-udf”目录下。

    • “/user/hive-udf”目录用户可自行定义。
    • UDF依赖的JAR需要用户自行提供。

  3. 在集群的管理节点注册Hive UDF。

    注册方式参考Spark集成HiveUDF官方文档