tensorflow dataframe 更多内容
  • 聚类评估

    聚类评估 概述 对聚类模型预测的结果数据集进行评估。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 聚类的评估指标:轮廓系数silhouette等 参数说明 参数 子参数 参数说明

    来自:帮助中心

    查看更多 →

  • 最小二乘法

    快速实现用户对物品评分的预测。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 spark pipeline类型的模型 参数说明 参数 子参数 参数说明 user_col

    来自:帮助中心

    查看更多 →

  • KV表转普通表

    参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 keymap_dataframe keymap_dataframe为输入的keymap表,类型:pyspark中的DataFrame类型对象 输出 参数

    来自:帮助中心

    查看更多 →

  • 二值化

    30”时,“Age”这一列的取值就为“1”。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集 参数说明 参数 子参数 参数说明 input_col - 输入列名

    来自:帮助中心

    查看更多 →

  • 保存parquet数据

    保存parquet格式的数据到本地文件系统。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 无 参数说明 参数 子参数 参数说明 output_file_path -

    来自:帮助中心

    查看更多 →

  • 停用词过滤

    inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象。里面存放的是待过滤的语句 inputs noise_dataframe inputs为字典类型,noise_dataframe为pyspark中的DataF

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    Spark Java API接口介绍 由于Spark开源版本升级,为避免出现API兼容性或可靠性问题,建议用户使用配套版本的API。 Spark Core常用接口 Spark主要使用到如下这几个类: JavaSparkContext:是Spark的对外接口,负责向调用该类的Jav

    来自:帮助中心

    查看更多 →

  • 修改列数据类型

    修改列数据类型 概述 修改数据集相应列的数据类型。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集 参数说明 参数 子参数 参数说明 column_type_map_str

    来自:帮助中心

    查看更多 →

  • 字符串标签化

    对数据集的指定列进行StringIndexer编码,即标签编码。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集 参数说明 参数 子参数 参数说明 input_column_str

    来自:帮助中心

    查看更多 →

  • 在Notebook中添加自定义IPython Kernel

    在Notebook中添加自定义IPython Kernel 使用场景 当前Notebook默认内置的引擎环境不能满足用户诉求,用户可以新建一个conda env按需搭建自己的环境。本小节以搭建一个“python3.6.5和tensorflow1.2.0”的IPython Kernel为例进行展示。 操作步骤 创建conda

    来自:帮助中心

    查看更多 →

  • ModelArts支持哪些AI框架?

    2-cudnn8-euler2.9.6 AI应用开发基础镜像,预置AI应用编排引擎ModelBox、AI引擎TensorRT,仅支持SSH连接 GPU 是 否 modelbox1.3.0-libtorch1.9.1-cuda10.2-cudnn8-euler2.9.6 AI应用开发基础镜像,预置AI应用编排引

    来自:帮助中心

    查看更多 →

  • 保存数据

    保存数据 概述 保存数据到本地文件系统。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 无 参数说明 参数 子参数 参数说明 output_file_path - 输出路径

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    SK)等。 pyspark.sql.SQLContext:是SparkSQL功能的主入口。可用于创建DataFrame,注册DataFrame为一张表,表上执行SQL等。 pyspark.sql.DataFrame:分布式数据集。DataFrame等效于SparkSQL中的关系表

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    SK)等。 pyspark.sql.SQLContext:是SparkSQL功能的主入口。可用于创建DataFrame,注册DataFrame为一张表,表上执行SQL等。 pyspark.sql.DataFrame:分布式数据集。DataFrame等效于SparkSQL中的关系表

    来自:帮助中心

    查看更多 →

  • 普通表转KV表

    参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 keymap_dataframe keymap_dataframe为输入的keymap表,类型:pyspark中的DataFrame类型对象 输出 参数

    来自:帮助中心

    查看更多 →

  • 独热编码

    概述 将用户指定的一些列进行one-hot编码。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集 参数说明 参数 子参数 参数说明 input_features_str

    来自:帮助中心

    查看更多 →

  • 文本词向量

    用于社交网络中的推荐系统、文本相似度等场景。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象,通常为分词算子的输出,可参考分词算子的使用。 输出 参数 子参数 参数说明 output

    来自:帮助中心

    查看更多 →

  • 保存为DLI OBS表

    or数据,可在该算子前添加数据集选择列算子。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 无 参数说明 参数 子参数 参数说明 DLI _database - 用户的目标DLI数据库名称

    来自:帮助中心

    查看更多 →

  • 使用预置框架简介

    章节。 预置的训练引擎 当前ModelArts支持的训练引擎及对应版本如下所示。 不同区域支持的AI引擎有差异,请以实际环境为准。 表1 训练作业支持的AI引擎 工作环境 系统架构 系统版本 AI引擎与版本 支持的cuda或Ascend版本 TensorFlow x86_64 Ubuntu18

    来自:帮助中心

    查看更多 →

  • FP-growth

    上的结构加快整个挖掘过程。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 数据集和spark pipeline类型的模型 参数说明 参数 子参数 参数说明 input_features_str

    来自:帮助中心

    查看更多 →

  • 直方图(多字段)

    输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 参数 子参数 参数说明 output dataframe dataframe类型的统计结果 参数说明 参数 是否必选 参数说明

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了