华为云

面向未来的智能世界,数字化是企业发展的必由之路。数字化成功的关键是以云原生的思维践行云原生,全数字化、全云化、AI驱动,一切皆服务。

华为云将持续创新,携手客户、合作伙伴和开发者,致力于让云无处不在,让智能无所不及,共建智能世界云底座。

 
 

    华为云 obs spark 访问 更多内容
  • 华为云MRS对接OBS

    华为云 MRS 对接OBS 对接步骤 配置存算分离集群。 详细操作,请参见使用委托方式配置存算分离集群。 使用存算分离集群。 详细操作,请参见使用存算分离集群。 父主题: 对接大数据平台

    来自:帮助中心

    查看更多 →

  • 安装Spark

    ry-obs/。请务必修改OBS桶名称及目录为正确值。 修改~/spark-obs/conf/spark-env.sh文件,如果该文件不存在,使用命令复制模板为文件。 cp ~/spark-obs/conf/spark-env.sh.template ~/spark-obs/conf/spark-env

    来自:帮助中心

    查看更多 →

  • 在ECS上通过内网访问OBS

    在E CS 上通过内网访问OBS 方案概述 在Windows ECS上使用OBS Browser+通过内网访问OBS 在Linux ECS上使用obsutil通过内网访问OBS 父主题: OBS数据访问

    来自:帮助中心

    查看更多 →

  • 使用Spark作业访问DLI元数据

    DLI 进行Spark作业访问DLI元数据开发流程参考如下: 图1 Spark作业访问DLI元数据开发流程 表2 开发流程说明 序号 阶段 操作界面 说明 1 创建DLI通用队列 DLI控制台 创建作业运行的DLI队列。 2 OBS桶文件配置 OBS控制台 如果是创建OBS表,则需要上传文件数据到OBS桶下。

    来自:帮助中心

    查看更多 →

  • 使用Spark-submit提交Spark Jar作业

    Management,简称IAM)进行精细的企业级多租户管理。该服务提供用户身份认证、权限分配、访问控制等功能,可以帮助您安全地控制华为云资源的访问。 通过IAM,您可以在华为云账号中给员工创建IAM用户,并使用策略来控制他们对华为云资源的访问范围。 目前包括角色(粗粒度授权)和策略(细粒度授

    来自:帮助中心

    查看更多 →

  • 使用Spark Jar作业读取和查询OBS数据

    Test\SparkJarObs\target”下名为“SparkJarObs-1.0-SNAPSHOT.jar”。 图11 导出jar包 步骤6:上传Jar包到OBS和DLI下 Spark 3.3及以上版本: 仅支持在创建Spark作业时,配置“应用程序”,从OBS选择作业所需的Jar包。

    来自:帮助中心

    查看更多 →

  • 配置Windows通过EIP访问集群Spark

    配置Windows通过EIP访问集群Spark 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Spark文件的方法,方便用户可以在本地对样例文件进行编译。 本章节以运行SparkScalaExample样例为例进行说明。 操作步骤 为集群的每个节点申请弹性公网IP,并将本

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序

    通过JDBC访问Spark SQL样例程序 通过JDBC访问Spark SQL样例程序开发思路 通过JDBC访问Spark SQL样例程序(Java) 通过JDBC访问Spark SQL样例程序(Scala) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 使用Spark2x实现车联网车主驾驶行为分析

    待。 准备Spark2x样例程序和样例数据 创建OBS并行文件系统,用于存放Spark样例程序、样例数据、作业执行结果和日志。 登录华为云管理控制台。 在“服务列表”中,选择“存储 > 对象存储服务 ”。 单击“并行文件系统 > 创建并行文件系统”,创建一个名称为“obs-demo

    来自:帮助中心

    查看更多 →

  • Spark2x对接OBS文件系统

    kinit 用户名 在spark-sql中访问OBS,例如在“obs://mrs-word001/table/”目录中创建表“test”。 进入spark bin目录:cd 客户端安装目录/Spark2x/spark/bin,执行./spark-sql登录spark-sql命令行。

    来自:帮助中心

    查看更多 →

  • 通用队列操作OBS表如何设置AK/SK

    本操作介绍获取Flink作业委托临时凭证的操作方法。 Spark作业场景 Spark Jar 使用DEW获取访问凭证读写OBS 访问OBS的AKSK为例介绍Spark Jar使用DEW获取访问凭证读写OBS的操作指导。 用户获取Spark作业委托临时凭证 本操作介绍获取Spark Jar作业委托临时凭证的操作方法。

    来自:帮助中心

    查看更多 →

  • DLI如何访问OBS桶中的数据

    DLI如何访问OBS桶中的数据 创建OBS表。 具体语法请参考《 数据湖探索 SQL语法参考》。 添加分区。 具体语法请参考《 数据湖 探索SQL语法参考》。 往分区导入OBS桶中的数据。 具体语法请参考《数据湖探索SQL语法参考》。 查询数据。 具体语法请参考《数据湖探索SQL语法参考》。

    来自:帮助中心

    查看更多 →

  • 添加OBS的Ranger访问权限策略

    添加OBS的Ranger访问权限策略 操作场景 Ranger管理员可以通过Ranger为OBS用户配置OBS目录或文件的读、写权限。 本章节仅适用于MRS 3.3.0-LTS及之后版本。 前提条件 已安装Ranger服务服务运行正常。 已创建需要配置权限的用户组。 已安装Guardian服务。

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序

    通过JDBC访问Spark SQL样例程序 通过JDBC访问Spark SQL样例程序开发思路 通过JDBC访问Spark SQL样例程序(Java) 通过JDBC访问Spark SQL样例程序(Scala) 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 入门实践

    据恢复等内容。 Hadoop数据迁移到华为云MRS服务 本实践使用华为云 CDM 服务将Hadoop集群中的数据(支持数据量在几十TB级别或以下的数据量级)迁移到华为云MRS服务。 HBase数据迁移到华为云MRS服务 本实践使用华为云CDM服务将HBase集群中的数据(支持数据量在

    来自:帮助中心

    查看更多 →

  • 通过临时URL访问OBS(Java SDK)

    -bucket”)。 同一用户在同一个区域多次创建同名桶不会报错,创建的桶属性以第一次请求为准。 默认取值: 无 objectKey String 可选 参数解释: 对象名。对象名是对象存储桶中的唯一标识。对象名是对象在桶中的完整路径,路径中不包含桶名。 例如,您对象访问地址为examplebucket

    来自:帮助中心

    查看更多 →

  • 如何对OBS进行访问权限控制?

    IAM权限的实现机制如下: 创建用户组,为用户组设定IAM权限集。 创建IAM用户用户加入用户组以获取相关的权限。 桶策略 桶策略是作用于所配置的OBS桶及桶内对象的。OBS桶拥有者通过桶策略可为IAM用户或其他账号授权桶及桶内对象的操作权限。 访问控制列表 (ACL) ACL是

    来自:帮助中心

    查看更多 →

  • 使用Oozie调度Spark访问HBase以及Hive

    Spark客户端目录(如“/opt/client/Spark2x/spark/conf”) hive-site.xml HDFS的“/user/developuser/myjobs/apps/spark2x”目录 hbase-site.xml Spark客户端目录(如“/opt/client/Spark2x/spark/jars”)

    来自:帮助中心

    查看更多 →

  • 配置Windows通过EIP访问集群Spark

    配置Windows通过EIP访问集群Spark 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Spark文件的方法,方便用户可以在本地对样例文件进行编译。 本章节以运行SparkScalaExample样例为例进行说明。 操作步骤 为集群的每个节点申请弹性公网IP,并将本

    来自:帮助中心

    查看更多 →

  • 配置Windows通过EIP访问集群Spark

    配置Windows通过EIP访问集群Spark 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Spark文件的方法,方便用户可以在本地对样例文件进行编译。 本章节以运行SparkScalaExample样例为例进行说明。 操作步骤 为集群的每个节点申请弹性公网IP,并将本

    来自:帮助中心

    查看更多 →

  • 使用Oozie调度Spark访问HBase以及Hive

    上传目标目录 Spark客户端目录(如“/opt/client/Spark2x/spark/conf”) hive-site.xml HDFS的“/user/developuser/myjobs/apps/spark2x”目录 hbase-site.xml 准备MRS应用开发用户时得到的keytab文件

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了