深色模式
模型调用
模型调用提供的是模型即服务的能力,为泛AI开发者提供灵活、易用、低成本的模型服务,加速AI模型资产的开发与落地。平台中提供自然语言处理、计算机视觉、多模态等不同场景的优质模型,开发者可在平台上体验或调用模型的API能力。
登录到平台后,在其左侧菜单中选择“模型调用”,即可查看平台中预置的模型服务列表,支持基于资源语言处理、多模态、计算机视觉等不同标签或模型名称检索模型服务。
模型卡片中支持API调用、体验点击操作,置灰则不支持点击。可点击状态时,点击模型卡片中的“API调用“,弹出模型API调用说明的抽屉,可以根据curl示例或python示例调用模型服务;调集模型卡片中的“体验”跳转至对话体验页即可选择当前模型服务在线体验测试其效果。
预置模型
序号 | 模型名称 | 描述 |
1 | Taichu-LLM | 基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。 |
2 | Taichu-LLM-2B | 在文本理解、内容创作、对话问答等能力有着显著提升。Taichu-LLM-2B具备2B规模参数量,适合处理文生生成类轻量化任务。 |
3 | Taichu-O1 | 通过多模态交互和强化学习实现类人思维链,支持复杂决策推演,在保持高精度输出的同时展现可模型推理的思维路径,适用于策略分析与深度思考等场景。 |
4 | Taichu-VL | 融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出。 |
5 | Taichu-VLR-3B | TaichuVL系列的推理系列。参数量为3B,与传统的指令调优模型相比,具备思考和推理能力,尤其是在图像理解、图文问答等领域表现更为突出。 |
6 | Taichu-VLR-7B | TaichuVL系列的推理系列。参数量为7B,与传统的指令调优模型相比,具备思考和推理能力,尤其是在图像理解、图文问答等领域表现更为突出。 |
7 | Taichu-ASR | 能够准确识别和理解人类语言,实时将语音转换为文本,支持多种场景下的语音输入和交互,如会议记录、语音搜索等。 |
8 | Taichu-TTS | 能够将文本转换为自然语音,优化了合成速度和语音质量,广泛应用于智能家居、内容创作和人机交互等领域。 |
9 | Taichu-text2Image | 基于紫东太初多模态大模型的先进AI技术,能够根据文本描述生成高质量图像。该模型结合了文本、图像等多模态信息,具备强大的跨模态理解和生成能力。 |
10 | Taichu-2.0-Turbo | 提升了模型复杂推理能力,可以用于长文本理解和创作、数学计算、代码生成,逻辑推理等复杂文本应用场景。 |
11 | DeepSeek-R1 | DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。 |
12 | DeepSeek-R1-Distill-Qwen-14B | DeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。 |
13 | DeepSeek-R1-Distill-Qwen-32B | DeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。 |
14 | DeepSeek-R1-Distill-Llama-70B | DeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 经过蒸馏训练得到的模型。该模型是 DeepSeek-R1 系列的一部分,通过使用 DeepSeek-R1 生成的样本进行微调,在数学、编程和推理等多个领域展现出优秀的性能。 |
15 | QWQ-32B | Qwen 系列中等规模的推理模型。与传统的指令调优模型相比,具备思考和推理能力的 QwQ 在下游任务中,尤其是在解决难题时,能够显著提升性能。 |
16 | LLaMA3-8B | llama3是Meta在2024年4月18日公开发布的大型语言模型,llama3-8B拥有80亿参数,平台支持微调训练。 |
17 | LLaMA2-7B | llama2系列是来自Meta开发并公开发布的大型语言模型。平台支持微调训练。 |
18 | Gemma-2B | Gemma 是 Google 开发的轻量级语言大模型,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。 |
19 | Gemma-7B | Gemma 是 Google 开发的轻量级语言大模型,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。 |
20 | RTMDet | RTMDet是一个为实例分割任务设计的高效模型,它通过动态卷积和多层特征提取,实现了高精度的实例分割,同时保持了良好的参数效率和实时性能。 |
21 | ViTDet | ViTDet是一个基于视觉Transformer(ViT)的目标检测模型, 首次将Transformer大规模应用到对象检测任务中,提高了模型的泛化能力和准确性。 |