百度AI市场

智谱大模型MaaS-API

GLM-130B 是一个中英双语双向稠密模型,1300 亿参数,架构采用通用语言模型,少样本学习性能在MMLU 上超过了 GPT-3 .
含税价格:
¥300000 /年
商品规格:
基础版
专业版
大模型一体机版
规格说明:
基础大模型
有效期:
1年
交付说明:
应用软件交付、模型交付、SDK交付 1天内交付
开票信息:
支持开具增值税专用发票(可抵扣)、增值税普通发票(不可抵扣)
服务保障:
质保期1年
立即购买
咨询详情
电话询价
产品详情
产品亮点

GLM-130B 是一个中英双语双向稠密模型,拥有 1300 亿参数,模型架构采用通用语言模型(GLM)。它有以下独特优势:高精度(英文): 在 LAMBADA 上优于 GPT-3 175B. 高精度(中文):在 7 个零样本 CLUE 数据集和 5 个零样本 FewCLUE 数据集上明显优于中文260B参数量的模型。

产品说明
在实际训练中,GLM-130B 使用两种不同的掩码标识符([MASK] 和 [gMASK]),分别用于短文和长文的生成。此外,它还采用了最近提出的旋转位置编码(RoPE)、DeepNorm 层规范化和高斯误差 GLU(GeGLU)技术。所有这些设计和技术都对 GLM-130B 大规模语言模型的稳定训练和高精度性能有所帮助。具体来说,GLM-130B 模型含有 70 层 Transformer,隐层维度 12288,最大序列长度 2048,以及一个基于 icetk的 150000 个标识符的双语分词器。GLM-130B 对超过 4000 亿个双语标记(2000 亿英文和 2000 亿中文标记)进行了预训练。它的预训练目标由两部分组成:第一部分(95%)是自监督的预训练,即在公开的大规模语料库以及其他一些较小的中文语料库上的自回归空白填充。第二部分(5%)是在 T0++18 和 DeepStruct19 中 70 个不同数据集的抽样子集上进行多任务指令预训练,格式为基于指令的多任务多提示序列到序列的生成。这种设计使 GLM-130B 可以在其他数据集上进行了零样本学习,以及从英文到中文的零样本迁移。

应用场景
金融、汽车等各行各业需要人工智能赋能的行业。
使用方式
API调用,私有化部署,端到端的大模型训练服务。
大模型主页 https://models.aminer.cn
大模型MaaS API平台 https://tianqi.aminer.cn/open/
其它
大模型 MaaS API 文档: https://tianqi.aminer.cn/open/document/get_started/platform_introduction
价格说明
商品规格交付清单数量/时长含税价格
基础版大模型 1个1年¥300000
专业版大模型部署 1次1年¥400000
大模型一体机版大模型一体机 1个1年¥500000
售后服务
发票信息
支持开具增值税专用发票(可抵扣)、增值税普通发票(不可抵扣)
服务保障
质保期: 1年