投递odps 更多内容
  • 数据投递

    数据投递 新增数据投递 数据投递授权 查看数据投递情况 管理数据投递任务 投递日志数据至LTS 父主题: 威胁运营

    来自:帮助中心

    查看更多 →

  • 新增数据投递

    道名称后的“更多 > 投递”,右侧弹出现在数据投递设置页面。 图3 进入投递设置页面 (可选)在弹出的授权提示中,确认无误后,单击“确定”,完成授权。 首次投递到目的投递类型需要进行授权,如果已经授权,则无需执行此步骤。 在新增投递配置页面中,配置数据投递相关参数。 配置基本信息。

    来自:帮助中心

    查看更多 →

  • 数据投递授权

    数据投递授权 操作场景 数据投递新增后,需进行投递权限授予操作,接受授权后,投递才会生效。 本章节介绍如何执行数据投递授权。 前提条件 已新增数据投递。 约束与限制 如果新增的数据投递为跨账号投递,则需要登录目的账号进行授权操作。 操作步骤 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。

    来自:帮助中心

    查看更多 →

  • 投递状态查看

    投递状态查看 查看已发送的邮件上方查看投递状态及详情。 在站内投递的邮件(所有在华为云 企业邮箱 开通的邮件往来),可查看投递成功/失败,收件方是否已读。站外投递的邮件,可查看是否成功投递至对方系统(若已成功投递至对方邮件系统,但对方未收到,请对方邮箱服务商确认) 父主题: 写信

    来自:帮助中心

    查看更多 →

  • 管理数据投递任务

    管理数据投递任务 操作场景 本章节介绍管理投递任务,请根据您的需要选择对应操作: 查看数据投递任务:查看数据投递任务相关信息。 挂起投递任务:数据投递成功后,如需停止投递,可挂起目标投递任务。 启动投递任务:数据投递任务停止投递后,如需重启投递,可启动目标投递任务。 删除投递任务:

    来自:帮助中心

    查看更多 →

  • 投递Cromwell任务

    当前Cromwell引擎可以通过命令行和SDK两种方式使用。SDK的使用方法请参见Python SDK参考。初始化后调用Cromwell相关接口即可投递任务。命令行使用方法请参见命令参考。安装命令行工具后,使用gcs sub wdl即可投递Cromwell任务。Cromwell引擎使用WDL文件描述任务执行流程。WDL的语法规则请参见1.

    来自:帮助中心

    查看更多 →

  • 查看数据投递情况

    查看数据投递情况 操作场景 数据投递成功后,可以到投递目的地查看数据投递情况。请根据您的投递目的地选择对应操作: 投递到其他数据管道 投递到OBS桶 投递到LTS 前提条件 已完成数据投递操作,具体操作请参见新增数据投递投递到其他数据管道 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。

    来自:帮助中心

    查看更多 →

  • Spark Python脚本如何引用Python脚本?

    __name__ == '__main__': # 创建一个名为"myj"的SparkSession对象 odps = create_spark_session() odps.execute_sql=execute_sql # 执行sql # sql_str="""select

    来自:帮助中心

    查看更多 →

  • 投递日志数据至LTS

    > 投递”,右侧弹出现在数据投递设置页面。 图3 进入投递设置页面 (可选)首次投递到目的投递类型需要进行授权,如果已经授权,请跳过该步骤。 在弹出的授权提示中,确认无误后,单击“确定”,完成授权。 在新增投递配置页面中,配置数据投递相关参数。 投递名称:自定义数据投递名称。

    来自:帮助中心

    查看更多 →

  • 在事件追踪中查看事件投递信息

    在事件追踪中查看事件投递信息 在EG控制台界面,单击“事件通道”中对应的事件通道的“事件轨迹”可以看到该事件的投递详情和事件详情: 界面入口: 图1 界面入口 事件详情: 图2 事件详情 事件轨迹: 图3 事件轨迹 父主题: 实施步骤

    来自:帮助中心

    查看更多 →

  • 自定义参数说明

    spark.sql.catalog.mc_catalog.tableReadProvider 填写tunnel spark.hadoop.odps.end.point 填写源端MaxCompute服务所在地域的VPC网络Endpoint信息。各地域VPC网络Endpoint信息请参

    来自:帮助中心

    查看更多 →

  • 支持的监控指标

    sub_num 投递事件数量 该指标为单位时间订阅投递事件数量 ≥ 0 事件订阅 1分钟 sub_success_num 投递事件成功数量 该指标为单位时间订阅投递事件成功数量 ≥ 0 事件订阅 1分钟 sub_success_rate 投递事件成功率 该指标为单位时间订阅投递事件成功率

    来自:帮助中心

    查看更多 →

  • 事件网格支持的监控指标

    监控指标 表1 事件投递监控项 指标ID 指标名称 指标含义 取值范围 测量对象 监控周期(原始指标) num 投递数量 该指标用于统计事件投递的调用总数。 单位:个 ≥ 0 counts 事件订阅 1分钟 success_num 成功数量 该指标用于统计事件投递的调用成功数量。 单位:个

    来自:帮助中心

    查看更多 →

  • 发送定时消息

    无法确保定时消息仅投递一次,定时消息可能会重复投递。 定时消息的定时时间是服务端开始向消费端投递的时间。如果消费者当前有消息堆积,那么定时消息会排在堆积消息后面,将不能严格按照配置的时间进行投递。 由于客户端和服务端可能存在时间差,消息的实际投递时间与客户端设置的投递时间之间可能存在偏差,以服务端时间为准。

    来自:帮助中心

    查看更多 →

  • 源端为MySQL,目的端为DMS Kafka

    同步kafka partition策略:支持以下三种投递策略,源端无主键情况下,目的端默认投递到partition 0。 按库名+表名的hash值投递到不同Partition。 全部投递到Partition 0。 按表的主键值hash值投递到不同的Partition。 需要同步的数据库

    来自:帮助中心

    查看更多 →

  • 事件轨迹

    可选择“事件源和事件类型”和“投递状态和订阅名称”。 事件ID 输入事件ID。 单击“事件轨迹”,查看事件轨迹及事件接收、事件投递详情。 图1 查看事件轨迹 单击“事件ID”,可查看事件详情如图2所示。 图2 事件详情 投递失败的事件详情可在72小时内查询到,投递成功的事件详情72小时内无法保证一定能查询到。

    来自:帮助中心

    查看更多 →

  • 发送定时消息

    无法确保定时消息仅投递一次,定时消息可能会重复投递。 定时消息的定时时间是服务端开始向消费端投递的时间。如果消费者当前有消息堆积,那么定时消息会排在堆积消息后面,将不能严格按照配置的时间进行投递。 由于客户端和服务端可能存在时间差,消息的实际投递时间与客户端设置的投递时间之间可能存在偏差,以服务端时间为准。

    来自:帮助中心

    查看更多 →

  • 发送定时消息

    无法确保定时消息仅投递一次,定时消息可能会重复投递。 定时消息的定时时间是服务端开始向消费端投递的时间。如果消费者当前有消息堆积,那么定时消息会排在堆积消息后面,将不能严格按照配置的时间进行投递。 由于客户端和服务端可能存在时间差,消息的实际投递时间与客户端设置的投递时间之间可能存在偏差,以服务端时间为准。

    来自:帮助中心

    查看更多 →

  • 发送定时消息

    无法确保定时消息仅投递一次,定时消息可能会重复投递。 定时消息的定时时间是服务端开始向消费端投递的时间。如果消费者当前有消息堆积,那么定时消息会排在堆积消息后面,将不能严格按照配置的时间进行投递。 由于客户端和服务端可能存在时间差,消息的实际投递时间与客户端设置的投递时间之间可能存在偏差,以服务端时间为准。

    来自:帮助中心

    查看更多 →

  • 发送定时消息

    无法确保定时消息仅投递一次,定时消息可能会重复投递。 定时消息的定时时间是服务端开始向消费端投递的时间。如果消费者当前有消息堆积,那么定时消息会排在堆积消息后面,将不能严格按照配置的时间进行投递。 由于客户端和服务端可能存在时间差,消息的实际投递时间与客户端设置的投递时间之间可能存在偏差,以服务端时间为准。

    来自:帮助中心

    查看更多 →

  • DataX对接OBS

    DataX是一个数据同步框架,实现了包括MySQL、SQL Server、Oracle、PostgreSQL、HDFS、Hive、HBase、OTS、ODPS等各种异构数据源之间高效的数据同步功能。OBS在大数据场景中可以替代Hadoop系统中的HDFS服务,本文介绍DataX如何对接OBS。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了