深色模式
模型调用
模型调用提供的是模型即服务的能力,为泛AI开发者提供灵活、易用、低成本的模型服务,加速AI模型资产的开发与落地。平台中提供自然语言处理、计算机视觉、多模态等不同场景的优质模型,开发者可在平台上体验或调用模型的API能力。
登录到平台后,在其左侧菜单中选择“模型调用”,即可查看平台中预置的模型服务列表,支持基于资源语言处理、多模态、计算机视觉等不同标签或模型名称检索模型服务。
模型卡片中支持API调用、体验点击操作,置灰则不支持点击。可点击状态时,点击模型卡片中的“API调用“,弹出模型API调用说明的抽屉,可以根据curl示例或python示例调用模型服务;调集模型卡片中的“体验”跳转至对话体验页即可选择当前模型服务在线体验测试其效果。
预置模型
序号 | 模型名称 | 描述 |
1 | Taichu-2.0 | 基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
2 | Taichu-2.0V | 融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出。 |
3 | Taichu-2.0-Turbo | 提升了模型复杂推理能力,可以用于长文本理解和创作、数学计算、代码生成,逻辑推理等复杂文本应用场景。 |
4 | LLaMA3-8B | llama3是Meta在2024年4月18日公开发布的大型语言模型,llama3-8B拥有80亿参数,平台支持微调训练。 |
5 | LLaMA2-7B | llama2系列是来自Meta开发并公开发布的大型语言模型。平台支持微调训练。 |
6 | 通义千问1.5-0.5B | 通义千问对外开源的0.5B规模参数量模型,支持vLLM、SGLang、Auto GPTQ等框架,显著提升了聊天模型与人类便好的一致性,改善了模型的多语言能力。 |
7 | 通义千问1.5-1.8B | 通义千问对外开源的1.5B规模参数量模型,支持vLLM、SGLang、Auto GPTQ等框架,显著提升了聊天模型与人类便好的一致性,改善了模型的多语言能力。 |
8 | 通义千问1.5-4B | 通义千问对外开源的4B规模参数量模型,支持vLLM、SGLang、Auto GPTQ等框架,显著提升了聊天模型与人类便好的一致性,改善了模型的多语言能力。 |
9 | 通义千问1.5-7B | 通义千问对外开源的7B规模参数量模型,支持vLLM、SGLang、Auto GPTQ等框架,显著提升了聊天模型与人类便好的一致性,改善了模型的多语言能力。 |
10 | Gemma-2B | Gemma 是 Google 开发的轻量级语言大模型,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。 |
11 | Gemma-7B | Gemma 是 Google 开发的轻量级语言大模型,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。 |