代码托管 CodeHub

源自华为千亿级代码管理经验,基于Git,提供企业代码托管的全方位服务

了解详情

 
 

    git客户端的使用 更多内容
  • HBase客户端使用实践

    有创建HBase表权限,具体请参见角色管理配置拥有对应权限角色,参考创建用户章节,为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 组件业务用户 例如,kinit hbaseuser。 直接执行HBase组件客户端命令。 hbase

    来自:帮助中心

    查看更多 →

  • 使用客户端SDK

    使用客户端SDK 操作场景 当您已在应用设计态完成应用构建和发布时,您可以通过客户端SDK在本地部署iDME环境,即可直接调用客户端SDK提供接口函数,实现使用iDME业务能力。 操作步骤 下载iDME Java SDK最新版本源码,安装SDK。 具体操作请参见获取与安装SDK。

    来自:帮助中心

    查看更多 →

  • Hive客户端使用实践

    Hive Beeline客户端常用命令 命令 说明 set <key>=<value> 设置特定配置变量(键)值。 说明: 如果变量名拼错,Beeline不会显示错误。 set 打印由用户或Hive覆盖配置变量列表。 set -v 打印Hadoop和Hive所有配置变量。 add

    来自:帮助中心

    查看更多 →

  • Spark客户端使用实践

    History Server页面用于展示已完成和未完成应用运行情况。 图1 History Server页面 选择一个应用ID,单击此页面将跳转到该应用Spark UI页面。 Spark UI页面,用于展示正在执行应用运行情况。 图2 Spark UI页面 通过查看Spark日志获取应用运行情况。

    来自:帮助中心

    查看更多 →

  • HDFS客户端使用实践

    /tmp/test 客户端常见使用问题 问题一:当执行HDFS客户端命令时,客户端程序异常退出,报“java.lang.OutOfMemoryError”错误。 该问题是由于HDFS客户端运行时所需内存超过了HDFS客户端设置内存上限(默认为128MB)。可以通过修改“<客户端安装路径

    来自:帮助中心

    查看更多 →

  • 使用客户端访问集群

    ClickHouse集群所在安全组。 ClickHouseHttp协议端口。 允许 9000 ClickHouseTCP协议端口。 允许 8443 ClickHouseHttps协议端口。 允许 9440 ClickHouse安全TCP安全端口。 父主题: 使用Clickhouse

    来自:帮助中心

    查看更多 →

  • Git工作流

    Git工作流 Git工作流概述 集中式工作流 分支开发工作流 Git flow工作流 Forking工作流 父主题: 更多Git知识

    来自:帮助中心

    查看更多 →

  • Git本地研发场景

    //将已暂存的文件提交到本地仓库 #git push //将本地代码仓库修改推送到远端仓库 分支操作 新建分支 Git新建分支本质就是创建一个指向最后一次提交可变指针,所以,Git分支创建不是复制版本库内容,仅仅是新建了一个指针,它以40个字符长度SHA-1字串形式保存在文件中。 1 #git branch

    来自:帮助中心

    查看更多 →

  • 访问Git仓库API

    访问Git仓库API 获取仓库授权列表 获取授权重定向URL 创建OAuth授权 创建私人令牌授权 创建口令授权 删除仓库授权 获取仓库namespaces 通过clone url获取仓库信息 获取命名空间下所有项目 创建软件仓库项目 获取项目分支 获取项目tags 创建项目tags

    来自:帮助中心

    查看更多 →

  • 配置Gitlab项目

    user.email "admin@example.com" git add . git commit -m "Initial commit" git push -u origin main 输入用户名为root,以及对应密码(如果未修改默认密码,请参见6获取默认密码)。 父主题:

    来自:帮助中心

    查看更多 →

  • Flink客户端使用实践

    下载认证凭据”。 图6 下载认证凭据 将下载认证凭据压缩包解压缩,并将得到文件拷贝到客户端节点中,例如客户端节点“/opt/hadoopclient/Flink/flink/conf”目录下。如果是在集群外节点安装客户端,需要将得到文件拷贝到该节点“/etc/”目录下。 配置安全

    来自:帮助中心

    查看更多 →

  • Sqoop客户端使用实践

    lue指定值之后记录进行追加导入。 lastmodified:最后修改时间,追加last-value指定日期之后记录。 -last-value (value) 增量导入参数,指定自从上次导入后列最大值(大于该指定值),也可以自己设定某一值。 Sqoop使用样例 sqoop

    来自:帮助中心

    查看更多 →

  • Kafka客户端使用实践

    禁用跨AZ特性。 基于此策略新建Topic各个PartitionLeader会在集群节点上随机分配,但会确保同一Partition不同Replica会分配在不同机架上,所以当使用此策略时,需保证各个机架内节点个数一致,否则会导致节点少机架上机器负载远高于集群平均水平。

    来自:帮助中心

    查看更多 →

  • Spark客户端使用实践

    History Server页面用于展示已完成和未完成应用运行情况。 图1 History Server页面 选择一个应用ID,单击此页面将跳转到该应用Spark UI页面。 Spark UI页面,用于展示正在执行应用运行情况。 图2 Spark UI页面 通过查看Spark日志获取应用运行情况。

    来自:帮助中心

    查看更多 →

  • HBase客户端使用实践

    有创建HBase表权限,具体请参见角色管理配置拥有对应权限角色,参考创建用户章节,为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 组件业务用户 例如,kinit hbaseuser。 直接执行HBase组件客户端命令。 hbase

    来自:帮助中心

    查看更多 →

  • Kafka客户端使用建议

    Kafka不能保证消费重复消息,业务侧需保证消息处理幂等性。 消费线程退出要调用consumerclose方法,避免同一个组其他消费者阻塞session.timeout.ms时间。 消费组名称开头不使用特殊字符(如#),使用特殊字符可能会导致云监控无法展示此消费组监控数据。 producer使用建议

    来自:帮助中心

    查看更多 →

  • 使用客户端连接Memcached

    使用客户端连接Memcached Telnet客户端连接Memcached Spymemcached客户端连接Memcached(Java) Python-binary-memcached客户端连接Memcached(Python) Libmemcached客户端连接Memcached(C++)

    来自:帮助中心

    查看更多 →

  • 支持Git多种作业流

    支持Git多种作业流 多种开发作业协同方式 提供基于Git多种开发协作模式,既适合中小企业灵活开发模式,也支持中大型企业复杂开发协作模式。 父主题: 产品功能

    来自:帮助中心

    查看更多 →

  • 如何迁移GitLab仓库

    填写导入后仓库关键信息。 代码组路径: 可选择导入仓库根目录路径。 仓库名称: 导入后仓库名称。 可见范围: 私有仓库/公开仓库。 定时同步:勾选了定时同步,则导入仓库为镜像仓,仓库无法提交代码,只能从源仓定时同步,仓库将每24小时刷新一次,刷新内容为源仓库24小时前内容。 分支设置:

    来自:帮助中心

    查看更多 →

  • 使用Kafka客户端SSL加密

    //truststore文件密码(生成时输入密码) props.put("ssl.truststore.password", "XXXXX"); 按需修改客户端样例工程“src/main/resources”目录下“producer.properties”和“consumer.properties”中“security

    来自:帮助中心

    查看更多 →

  • Python客户端使用说明

    引入Kafka客户端 MQS基于Kafka社区版本1.1.0、2.7,您可以在ROMA Connect实例控制台“实例信息”页面,在“MQS基本信息”下查看Kafka版本信息。Python开源客户端版本使用请参见客户端版本使用建议。 执行以下命令,安装对应版本Python Kafka客户端:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了