开发者学习中心

开发者一站式学习、体验中心,学有所得、学有所乐!

 

    linux apache主机头 更多内容
  • Linux下打包Storm业务

    Linux下打包Storm业务 操作场景 Storm支持在Linux环境下打包。用户可以将从IntelliJ IDEA中导出的Jar包和需要的其他相关Jar包上传到Linux环境中执行打包。 打包业务的目的,是将IntelliJ IDEA代码生成的jar包与工程依赖的jar包,合并导出可提交的source

    来自:帮助中心

    查看更多 →

  • 创建漏洞扫描任务

    是否必选 参数类型 描述 manual_scan_type 否 Array of strings 操作类型,包含如下: -linux_vul : linux漏洞 -windows_vul : windows漏洞 -web_cms : Web-CMS漏洞 -app_vul : 应用漏洞

    来自:帮助中心

    查看更多 →

  • 如何采用Java命令提交Spark应用

    Exit code is $exitCode") } 根据业务逻辑,开发对应的Spark应用程序。并设置用户编写的Spark应用程序的类等常数。不同场景的示例请参考开发Spark应用。 如果您使用的安全模式,建议按照安全要求,准备安全认证代码、业务应用代码及其相关配置。 y

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HetuEngine应用

    Linux环境中调测HetuEngine应用 操作场景 在程序代码完成开发后,也可以把代码编译成jar包,上传到Linux环境进行程序功能调试。 在Linux环境上调测程序前,需在Linux节点预安装客户端。 操作步骤 根据需要修改“jaas-zk.conf”中“KeyTab”

    来自:帮助中心

    查看更多 →

  • 在Apache服务器上安装私有证书

    修改后,保存“ssl.conf”文件并退出编辑。 步骤四:重启Apache 执行以下操作重启Apache,使配置生效。 执行service httpd stop命令停止Apache服务。 执行service httpd start命令启动Apache服务。 效果验证 部署成功后,可在浏览器的地址

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    SQL样例程序开发思路 场景说明 用户自定义JD BCS erver的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 数据规划 确保以多实例模式启动了JDB CS erver服务,并至少有一个实例可连接客户端。在JDBCServer节点上分别创建“/home/data”文件,内容如下:

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    packages: apache-flink Attempting uninstall: apache-flink Found existing installation: apache-flink x.xx.x Uninstalling apache- flink-x

    来自:帮助中心

    查看更多 →

  • 安装前准备

    已下载需要安装组件的安装包,*.tar 安装包适用于 Linux 操作系统,*.zip 安装包适用于 Windows 操作系统。 表1 安装包清单 软件包名称 软件包描述 Primeton_DSP_7.0_Governor_Linux_64.tar Primeton_DSP_7.0_Governor_Windows_64

    来自:帮助中心

    查看更多 →

  • DSP Scheduler

    创建“DSPScheduler”目录。 解压安装包到 “DSPScheduler”目录中。 Linux #tar -xvf Primeton_DSP_7.0_Scheduler_Linux_64.tar -C DSPScheduler Windows 用解压工具将 “Primeton_DSP_7

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    DBC连接来进行表的创建、数据加载、查询和删除。 数据规划 将数据文件上传至HDFS中。 确保以多实例模式启动了JDBCServer服务,并至少有一个实例可连接客户端。在Linux系统HDFS客户端新建一个文本文件“data”,内容如下: Miranda,32 Karlie,23

    来自:帮助中心

    查看更多 →

  • 为什么主NameNode重启后系统出现双备现象

    为什么NameNode重启后系统出现双备现象 问题 为什么NameNode重启后系统出现双备现象? 出现该问题时,查看ZooKeeper和ZKFC的日志,发现ZooKeeper服务端与客户端(ZKFC)通信时所使用的session不一致,ZooKeeper服务端的sessio

    来自:帮助中心

    查看更多 →

  • ECS自助建站汇总

    phpMyAdmin 4.4.15.10 LNMP代表Linux系统下Nginx+MySQL+PHP这种网站 服务器 架构,Nginx是一个小巧而高效的Linux下的Web服务器软件。 镜像部署Magento 电子商务网站(Linux) 镜像部署 Linux Magento2.2.4英文社区版_简单数据版

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

  • Spark执行应用时上报“Connection to ip:port has been quiet for xxx ms while there are outstanding requests”并导致应用结束

    at org.apache.spark.network.client.TransportResponseHandler.channelUnregistered(TransportResponseHandler.java:104) at org.apache.spark

    来自:帮助中心

    查看更多 →

  • 基线检查概述

    对常见的Tomcat配置、Nginx配置、SSH登录配置以及系统配置等进行检查,帮助用户识别不安全的配置项。 目前支持的检测标准及类型如下: Linux系统: 云安全 实践:Apache2、Docker、MongoDB、Redis、MySQL5、Nginx、Tomcat、SSH、vsftp、CentOS7

    来自:帮助中心

    查看更多 →

  • 如何采用Java命令提交Spark应用

    } 根据业务逻辑,开发对应的Spark应用程序。并设置用户编写的Spark应用程序的类等常数。准备业务应用代码及其相关配置。不同场景的示例请参考开发Spark应用。 调用org.apache.spark.launcher.SparkLauncher.launch()方法,将用户的应用程序提交。

    来自:帮助中心

    查看更多 →

  • 在Apache服务器上安装SSL证书

    修改后,保存“ssl.conf”文件并退出编辑。 步骤四:重启Apache 执行以下操作重启Apache,使配置生效。 执行service httpd stop命令停止Apache服务。 执行service httpd start命令启动Apache服务。 步骤五:效果验证 部署成功后,可在浏览

    来自:帮助中心

    查看更多 →

  • 为什么主NameNode重启后系统出现双备现象

    为什么NameNode重启后系统出现双备现象 问题 为什么NameNode重启后系统出现双备现象? 出现该问题时,查看ZooKeeper和ZKFC的日志,发现ZooKeeper服务端与客户端(ZKFC)通信时所使用的session不一致,ZooKeeper服务端的sessio

    来自:帮助中心

    查看更多 →

  • 通过JDBC访问Spark SQL样例程序开发思路

    SQL样例程序开发思路 场景说明 用户自定义JDBCServer的客户端,使用JDBC连接来进行表的创建、数据加载、查询和删除。 数据规划 确保以多实例模式启动了JDBCServer服务,并至少有一个实例可连接客户端。在JDBCServer节点上分别创建“/home/data”文件,内容如下:

    来自:帮助中心

    查看更多 →

  • 如何配置HBase双读能力

    。 HBase Admin接口、实时写入接口只会访问集群。所以集群宕机后,不能提供Admin接口功能和实时写入接口功能,只能提供Get、Scan查询服务。 操作步骤 参考准备连接HBase集群配置文件章节,获取HBase集群客户端配置文件“core-site.xml”、“hbase-site

    来自:帮助中心

    查看更多 →

  • 在Linux环境中调测HDFS应用

    Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了