开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    java客户端和服务器代码 更多内容
  • 分布式Scan HBase表

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在 FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序开发思路

    据等操作。 详细代码请参考样例代码。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 运行Python样例代码无需通过Maven打包。 将打包生成的jar包上传到Spark客户端所在 服务器 的任意目录(例如“

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    SQL样例程序开发思路 场景说明 用户自定义JD BCS erver的客户端,使用JDBC连接来进行表的创建、数据加载、查询删除。 数据规划 确保以多主实例模式启动了JDB CS erver服务,并至少有一个实例可连接客户端。在JDBCServer节点上分别创建“/home/data”文件,内容如下:

    来自:帮助中心

    查看更多 →

  • BulkDelete接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • 分布式Scan HBase表

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • 操作HBase数据源

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • 通过Transport Client接入Elasticsearch集群

    Client接入Elasticsearch集群。 注意事项 建议Transport Client的版本Elasticsearch的版本保持一致,例如需要访问的Elasticsearch集群版本是7.6.2,则使用的Transport Client客户端版本建议也是7.6.2。 由于该方案只适用于接入非安全集群,因此只支持通过内网IP地址的方式访问集群。

    来自:帮助中心

    查看更多 →

  • 操作HBase数据源

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序开发思路

    hon调用Java的方式实现。将所提供 Java代码使用maven打包成jar,并放在相同目录下,运行python程序时要使用--jars把jar包加载到classpath中。 由于Python样例代码中未给出认证信息,请在执行应用程序时通过配置项“--keytab”“--principal”指定认证信息。

    来自:帮助中心

    查看更多 →

  • SparkStreaming批量写入HBase表

    提交命令 假设用例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端“$SPARK_HOME”目录下,以下命令均在“$SPARK_HOME”目录执行,Java接口对应的类名前有Java字样,请参考具体样例代码进行书写。 yarn-client模式:

    来自:帮助中心

    查看更多 →

  • 连接GeminiDB HBase兼容版实例

    接管理”,即可查看到实例的内网IP地址端口。 图3 查看IP端口 通过内网连接实例 登录弹性云服务器。 详情请参见《弹性云服务器快速入门》中登录弹性云服务器的内容。 将HBase客户端安装包上传到弹性云服务器。 使用如下命令,解压客户端安装包。 tar -xvf hbase-2

    来自:帮助中心

    查看更多 →

  • foreachPartition接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • BulkLoad接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • BulkPut接口使用

    安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytabkrb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。

    来自:帮助中心

    查看更多 →

  • SparkStreaming批量写入HBase表

    提交命令 假设用例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端“$SPARK_HOME”目录下,以下命令均在“$SPARK_HOME”目录执行,Java接口对应的类名前有Java字样,请参考具体样例代码进行书写。 yarn-client模式:

    来自:帮助中心

    查看更多 →

  • 平台和客户端兼容性

    假定函数add_months的两个参数分别为param1param2,param1的月份param2的月份为result。 不设置此配置项时,如果param1的日期(Day字段)为月末,并且param1的日期(Day字段)比result月份的月末日期小,计算结果中的日期字段(Day字段)param1的日期字段保持一致。比如,

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了