开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    开发spark用java合适吗 更多内容
  • Spark Structured Streaming样例程序(Java)

    Spark Structured Streaming样例程序(Java) 功能介绍 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:com

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序(Java)

    args[1]; SparkConf sparkConf = HoodieExampleSparkUtils.defaultSparkConf("hoodie-client-example"); JavaSparkContext jsc = new JavaSparkContext(sparkConf);

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming样例程序(Java)

    Spark Structured Streaming样例程序(Java) 功能介绍 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:com

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序(Java)

    通过JDBC访问Spark SQL样例程序(Java) 功能简介 使用自定义客户端的JDBC接口提交数据分析任务,并返回结果。 样例代码 定义SQL语句。SQL语句必须为单条语句,注意其中不能包含“;”。示例: ArrayList<String> sqlList = new ArrayList<String>();

    来自:帮助中心

    查看更多 →

  • 如何选购合适的API

    如何选购合适的API 文字识别 服务(OCR)提供四种类型的API:通用类、证件类、票据类、智能分类。 除此之外,您也可以使用 ModelArts Pro 服务提供的“文字识别套件”零代码搭建出专属的文字识别系统。 通用类 通用 表格识别 :提取表格内的文字和所在行列位置信息。 通用文字识别 :提取图片内的文字及其对应位置信息。

    来自:帮助中心

    查看更多 →

  • 案例:建立合适的索引

    案例:建立合适的索引 创建合适的索引可以加速对表中数据行的检索。索引占用磁盘空间,并且降低添加、删除和更新行的速度。如果需要非常频繁地更新数据或磁盘空间有限,则需要限制索引的数量。在表较大时再建立索引,表中的数据越多,索引的优越性越明显。建议仅在匹配如下某条原则时创建索引: 需要经常执行查询的字段。

    来自:帮助中心

    查看更多 →

  • 案例:建立合适的索引

    案例:建立合适的索引 现象描述 查询与销售部所有员工的信息: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 --建表 CREATE TABLE staffs (staff_id NUMBER(6)

    来自:帮助中心

    查看更多 →

  • 案例:建立合适的索引

    案例:建立合适的索引 现象描述 查询与销售部所有员工的信息: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 --建表 CREATE TABLE staffs (staff_id NUMBER(6)

    来自:帮助中心

    查看更多 →

  • 案例:建立合适的索引

    案例:建立合适的索引 现象描述 查询与销售部所有员工的信息: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 --建表 CREATE TABLE staffs (staff_id NUMBER(6)

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming样例程序(Java)

    Spark Structured Streaming样例程序(Java) 功能介绍 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码样例 下面代码片段仅为演示,具体代码参见:com

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    alse”),将配置项“spark.inputFormat.cache.enabled”设置为“false”。 提交命令 假设例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端“$SPARK_HOME”目录下,以下命

    来自:帮助中心

    查看更多 →

  • 分布式Scan HBase表

    false”),将配置项“spark.inputFormat.cache.enabled”设置为“false”。 提交命令 假设例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端$SPARK_HOME目录下,以下命令

    来自:帮助中心

    查看更多 →

  • 分布式Scan HBase表

    false”),将配置项“spark.inputFormat.cache.enabled”设置为“false”。 提交命令 假设例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端$SPARK_HOME目录下,以下命令

    来自:帮助中心

    查看更多 →

  • Spark Core样例程序开发思路

    Spark Core样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Spark应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • 准备Spark本地应用开发环境

    准备Spark本地应用开发环境 在进行应用开发时,要准备的开发和运行环境如表1所示。 表1 开发环境 准备项 说明 操作系统 开发环境:Windows系统,支持Windows 7以上版本。 运行环境:Windows系统或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。

    来自:帮助中心

    查看更多 →

  • 准备Spark本地应用开发环境

    准备Spark本地应用开发环境 Spark2x可以使用Java/Scala/Python语言进行应用开发,要准备的开发和运行环境如表1所示。 表1 开发环境 准备项 说明 操作系统 开发环境:Windows系统,支持Windows 7以上版本。 运行环境:Windows系统或Linux系统。

    来自:帮助中心

    查看更多 →

  • Spark Jar作业开发指南

    Spark Jar作业开发指南 使用Spark Jar作业读取和查询OBS数据 使用Spark作业访问 DLI 元数据 使用Spark作业跨源访问数据源 Spark Jar 使用DEW获取访问凭证读写OBS 获取Spark作业委托临时凭证用于访问其他云服务

    来自:帮助中心

    查看更多 →

  • 开发一个DLI Spark作业

    在数据开发模块中提交一个Spark作业。 操作流程如下: 创建DLI集群,通过DLI集群的物理资源来运行Spark作业。 获取Spark作业的演示JAR包,并在数据开发模块中关联到此JAR包。 创建数据开发模块作业,通过DLI Spark节点提交Spark作业。 环境准备 已开通

    来自:帮助中心

    查看更多 →

  • BulkGet接口使用

    alse”),将配置项“spark.inputFormat.cache.enabled”设置为“false”。 提交命令 假设例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端“$SPARK_HOME”目录下,以下命

    来自:帮助中心

    查看更多 →

  • 通过Java API提交Oozie作业开发思路

    通过Java API提交Oozie作业开发思路 通过典型场景,用户可以快速学习和掌握Oozie的开发过程,并且对关键的接口函数有所了解。 本示例演示了如何通过Java API提交MapReduce作业和查询作业状态,代码示例只涉及了MapReduce作业,其他作业的API调用代码是一样的,只是job配置“job

    来自:帮助中心

    查看更多 →

  • 使用Spark执行Hudi样例程序(Java)

    args[1]; SparkConf sparkConf = HoodieExampleSparkUtils.defaultSparkConf("hoodie-client-example"); JavaSparkContext jsc = new JavaSparkContext(sparkConf);

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了