netty中bytebuf 更多内容
  • 导入并配置Flink样例工程

    Flink客户端lib目录、opt目录中都有flink jar包,其中lib目录默认是flink核心jar包,opt目录是对接外部组件的jar包(例如flink-connector-kafka*.jar),若应用开发需要请手动复制相关jar包到lib目录。 针对Flink提供的几个样例工程,其对应的运行依赖包如下:

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    在Linux环境调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • JavaAgent更新说明

    支持cce解密sk。 2.支持jedis拦截key和value。 3.支持cassandra3。 2.2.15 1.支持sk自定义解密。 2.支持在启动脚本配置master地址。 3.支持apacheHttpclient的responseBody采集。 2.2.13 1.使NamedTransf

    来自:帮助中心

    查看更多 →

  • Storm-HBase开发指引

    createTopology()); } 部署运行及结果查看 导出本地jar包,请参见打包Strom样例工程应用。 将1导出的本地Jar包,4获取的配置文件和5获取的jar包合并统一打出完整的业务jar包,请参见打包Strom应用业务。 执行命令提交拓扑。 storm jar

    来自:帮助中心

    查看更多 →

  • 常用参数

    “false”表示不允许,此时只允许query显式包含CROSS JOIN语法。 true JDBC应用在服务端的“spark-defaults.conf”配置文件设置该参数。 Spark客户端提交的任务在客户端配的“spark-defaults.conf”配置文件设置该参数。 Spark长时间任务安全认证配置

    来自:帮助中心

    查看更多 →

  • 常用参数

    “false”表示不允许,此时只允许query显式包含CROSS JOIN语法。 true JDBC应用在服务端的“spark-defaults.conf”配置文件设置该参数。 Spark客户端提交的任务在客户端配的“spark-defaults.conf”配置文件设置该参数。 Spark长时间任务安全认证配置

    来自:帮助中心

    查看更多 →

  • Hive对接CSS服务

    Jar包存放在hdfs的路径 执行以下命令将6的Jar上传至HDFS。 hdfs dfs -put Jar包存放路径 Jar包存放在hdfs的路径 执行以下命令让Hive在执行命令行任务时加载指定Jar包。 beeline add jar Jar包存放在hdfs的路径;(每个Jar包分别执行一次该命令)

    来自:帮助中心

    查看更多 →

  • 为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误

    concurrent.TimeoutException: Timed out waiting for client connection. at io.netty.util.concurrent.AbstractFuture.get(AbstractFuture.java:37) at org.apache

    来自:帮助中心

    查看更多 →

  • 为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误

    concurrent.TimeoutException: Timed out waiting for client connection. at io.netty.util.concurrent.AbstractFuture.get(AbstractFuture.java:37) at org.apache

    来自:帮助中心

    查看更多 →

  • 导入并配置Flink样例工程

    Flink客户端lib目录、opt目录中都有flink jar包,其中lib目录默认是flink核心jar包,opt目录是对接外部组件的jar包(例如flink-connector-kafka*.jar),若应用开发需要请手动复制相关jar包到lib目录。 针对Flink提供的几个样例工程,其对应的运行依赖包如下:

    来自:帮助中心

    查看更多 →

  • 产品集群部署(单redis部署)

    ver1的启动文件设置: -Desen.abi.workdir =/work_dir/ABIrootdir1 在Server2的启动文件设置: -Desen.abi.workdir =/work_dir/ABIrootdir2 在Server3的启动文件设置: -Desen

    来自:帮助中心

    查看更多 →

  • Storm-HBase开发指引

    工程应用。 将1导出的本地Jar包,5获取的配置文件和6获取的jar包合并统一打出完整的业务jar包,请参见打包Storm业务。 执行命令提交拓扑。 keytab方式下,若用户修改了keytab文件名,如修改为“huawei.keytab”,则需要在命令增加第二个参数进行

    来自:帮助中心

    查看更多 →

  • 通过Java连接实例

    addContactPoint("127.0.0.1")//此处为步骤1获取到的GeminiDB Cassandra实例的内网IP .withPort(8635) //此处为步骤1获取到的GeminiDB Cassandra实例的端口

    来自:帮助中心

    查看更多 →

  • 快速入门

    集成SDK 在Android Studio,将工程目录结构切换到Project: 图4 切换成Project 将libs下的aar包拷贝到你的工程目录: 图5 添加aar 添加依赖 添加三方依赖。 SDK依赖了一些优秀的开源库,需要在gradle添加对这些库的依赖,方法如下。 在项目根目录下创建config

    来自:帮助中心

    查看更多 →

  • Redisson客户端连接Redis(Java)

    注意:在springboot1.x默认集成的是jedis,springboot2.x改为了lettuce。 如果创建Redis实例时设置了密码,使用Redisson客户端连接Redis时,需要配置密码进行连接,建议不要将明文密码硬编码在代码。 连接单机、读写分离、Proxy

    来自:帮助中心

    查看更多 →

  • Lettuce客户端连接Redis(Java)

    在springboot类型的项目中,spring-data-redis已提供了对jedis、lettuce的集成适配。另外,在springboot1.x默认集成的是jedis,springboot2.x改为了lettuce,因此在springboot2.x及更高版本想集成使用lettuce,无需手动引入lettuce依赖包。

    来自:帮助中心

    查看更多 →

  • IoT Device SDK使用指南(Java)

    创建设备时,需要写入在注册设备时获取的设备ID、密码,以及1获取的设备对接信息,注意格式为ssl:// 域名 信息:端口号 或 ssl://IP地址:端口号 1 2 3 //例如在iot-device-demo文件 MessageSample.java修改以下参数 IoTDevice

    来自:帮助中心

    查看更多 →

  • IoT Device SDK使用指南(Java)

    消息上报是指设备向平台上报消息。 从device获取客户端,调用IoTDevice的getClient接口即可获取到客户端。 调用客户端的reportDeviceMessage接口来上报设备消息。在MessageSample这个例子我们周期性上报消息: 1 2 3 4

    来自:帮助中心

    查看更多 →

共81条
看了本文的人还看了