另一个程序正在使用此文件 更多内容
  • 通过动态存储卷使用文件存储

    作请参见通过静态存储卷使用已有文件存储。 本文中选择“动态创建”。 存储类 文件存储对应的存储类为csi-sfs。 说明: 使用SFS 3.0文件存储时,您需要提前在集群所在VPC创建一个 VPC终端节点 ,这样集群就可以通过VPC终端节点访问SFS 3.0文件系统。配置VPC终端节点的方法请参见配置VPC终端节点。

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    router联邦场景下,如果表的根路径与根路径“/user”的目标NameService不同,在二次合并时需要手动清理放入回收站的原表文件,否则会导致合并失败。 工具应用客户端配置,需要做性能调优可修改客户端配置文件的相关配置。 shuffle设置 对于合并功能,可粗略估计合并前后分区数的变化: 一般来说,旧分区

    来自:帮助中心

    查看更多 →

  • 使用Yaml文件创建流程服务编排

    使用Yaml文件创建流程服务编排 注意事项 流程引擎支持通过导入Swagger 2.0的Yaml文件来创建流程服务编排,且该Yaml文件不能大于1MB。 Yaml创建流程服务编排 登录流程引擎。 在左侧导航栏中,选择“流程编排服务 > 流程服务编排”,进入“流程服务编排”页面。 单击“创建”,展开“创建服务”页面。

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序(Scala)

    使用Spark执行Hudi样例程序(Scala) 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.hudi.examples.HoodieDataSourceExample。 插入数据: def insertData(spark: SparkSession

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序(Python)

    使用Spark执行Hudi样例程序(Python) 下面代码片段仅为演示,具体代码参见:HudiPythonExample.py。 插入数据: #insert inserts = sc._jvm.org.apache.hudi.QuickstartUtils.convertToStringList(dataGen

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序(Java)

    使用Spark执行Hudi样例程序(Java) 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.hudi.examples.HoodieWriteClientExample。 创建客户端对象来操作Hudi: String tablePath = args[0];

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序(Python)

    使用Spark执行Hudi样例程序(Python) 下面代码片段仅为演示,具体代码参见:HudiPythonExample.py。 插入数据: #insert inserts = sc._jvm.org.apache.hudi.QuickstartUtils.convertToStringList(dataGen

    来自:帮助中心

    查看更多 →

  • IoTA.01010030 资产正在发布中

    IoTA.01010030 资产正在发布中 错误码描述 资产正在发布中。 可能原因 资产正在发布中,不能对资产进行创建、修改、删除和发布操作。 处理建议 请等待资产发布结束后再重试。 父主题: 资产建模相关错误码

    来自:帮助中心

    查看更多 →

  • 文件路径使用了中文冒号(Windows)

    文件路径使用了中文冒号(Windows) 问题现象 日志信息提示“"stderr": "del : Cannot find path 'C:\\Users\\Administrator\\c:\\test001' because it does not \r\nexist.”。 原因分析

    来自:帮助中心

    查看更多 →

  • 使用LZC压缩算法存储HDFS文件

    使用LZC压缩算法存储HDFS文件 配置场景 文件压缩可以减少储存文件的空间,并且提高数据从磁盘读取和网络传输的速度。HDFS有Gzip和Snappy这两种默认压缩格式。本章节为HDFS新增加的压缩格式LZC(Lempel-Ziv Compression)提供配置方法。这种压缩格

    来自:帮助中心

    查看更多 →

  • 使用Spark小文件合并工具说明

    router联邦场景下,如果表的根路径与根路径“/user”的目标NameService不同,在二次合并时需要手动清理放入回收站的原表文件,否则会导致合并失败。 工具应用客户端配置,需要做性能调优可修改客户端配置文件的相关配置。 shuffle设置 对于合并功能,可粗略估计合并前后分区数的变化: 一般来说,旧分区

    来自:帮助中心

    查看更多 →

  • 使用Hive异常文件定位定界工具

    指定输入的文件或者输入的目录,输入的目录中如果存在当前格式则解析,如果不存在则跳过。可以指定本地文件或者目录,也可以指定HDFS/OBS文件或者目录。 input-directory 输入数据文件所在的目录,子文件多个的情况下使用。 例如,执行以下命令排查orc文件“hdfs://hac

    来自:帮助中心

    查看更多 →

  • 通过动态存储卷使用文件存储

    您已经创建好一个文件存储,并且文件存储与集群在同一个VPC内。 使用通用文件系统(SFS 3.0)时,您需要提前在集群所在VPC创建一个VPC终端节点,集群需要通过VPC终端节点访问通用文件系统。配置VPC终端节点的方法请参见配置VPC终端节点。 约束与限制 使用通用文件系统(SFS

    来自:帮助中心

    查看更多 →

  • 使用kubectl自动创建文件存储

    使用kubectl自动创建文件存储 当前SFS文件存储处于售罄状态,暂时无法使用存储类自动创建PVC。 约束与限制 如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 请参见通过kubectl连接集群,使用kubectl连接集群。 执行如下命令,配置名为

    来自:帮助中心

    查看更多 →

  • 如果使用“银行对公账户认证”方式认证失败了,是否可以继续使用此方式认证?

    如果使用“银行对公账户认证”方式认证失败了,是否可以继续使用方式认证? 如果认证失败次数小于6次,可以继续使用方式认证。 如果超过6次认证失败,则不可再使用认证方式,只能使用企业证件认证方式认证。 父主题: 银行对公转账认证

    来自:帮助中心

    查看更多 →

  • 跨域资源共享简介

    S中的资源。 CORS的典型应用场景包括: 通过CORS支持,使用JavaScript和HTML5来构建Web应用,直接访问OBS中的资源,而不再需要代理 服务器 做中转。 使用HTML5中的拖拽功能,直接向OBS上传文件,展示上传进度,或是直接从Web应用中更新内容。 托管在不同域

    来自:帮助中心

    查看更多 →

  • 正在使用VPN出现了连接中断,提示数据流不匹配,如何排查?

    正在使用VPN出现了连接中断,提示数据流不匹配,如何排查? 这通常是由于云上与用户侧数据中心设备配置的ACL不匹配造成的。 首先确认两端VPN连接的子网信息是否配置一致,确保云端生成的ACL与用户侧数据中心ACL配置互为镜像 用户侧数据中心感兴趣流配置推荐使用“子网/掩码”的格式

    来自:帮助中心

    查看更多 →

  • 动态加速

    快照生成的默认路径为/data/hce-wae/snapshot/,可在配置文件中对快照位置进行修改。后续您可以直接使用优化后的快照文件mysqld.dbo运行应用,无需重复优化。 终止动态加速工具,应用优化结束。 命令格式:hce-wae --stop [PID] 动态应用加速工具字符交互界面

    来自:帮助中心

    查看更多 →

  • Spark客户端使用实践

    选择一个应用ID,单击页面将跳转到该应用的Spark UI页面。 Spark UI页面,用于展示正在执行的应用的运行情况。 图2 Spark UI页面 通过查看Spark日志获取应用运行情况。 通过查看Spark日志介绍了解应用运行情况,并根据日志信息调整应用程序。 父主题: 使用Spark/Spark2x

    来自:帮助中心

    查看更多 →

  • 构建程序

    构建程序 本例提供了支持优雅关机功能的程序使用空白模板创建函数,用户可以学习使用。 创建函数 登录 函数工作流 控制台,在左侧导航栏选择“函数 > 函数列表”,进入函数列表界面。 单击“创建函数”,进入创建函数流程。 选择“创建空白函数”,填写函数配置信息。输入基础配置信息,完成后单击“创建函数”。

    来自:帮助中心

    查看更多 →

  • 小程序

    程序 加入会议 会中功能

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了