Skip to content
目录

模型调用

模型调用提供的是模型即服务的能力,为泛AI开发者提供灵活、易用、低成本的模型服务,加速AI模型资产的开发与落地。平台中提供自然语言处理、计算机视觉、多模态等不同场景的优质模型,开发者可在平台上体验或调用模型的API能力。

登录到平台后,在其左侧菜单中选择“模型调用”,即可查看平台中预置的模型服务列表,支持基于资源语言处理、多模态、计算机视觉等不同标签或模型名称检索模型服务。

descript

模型卡片中支持API调用、体验点击操作,置灰则不支持点击。可点击状态时,点击模型卡片中的“API调用“,弹出模型API调用说明的抽屉,可以根据curl示例或python示例调用模型服务;调集模型卡片中的“体验”跳转至对话体验页即可选择当前模型服务在线体验测试其效果。

descript

预置模型

序号模型名称描述
1Taichu-LLM基于海量高质数据训练,具有更强的文本理解、内容创作、对话问答等能力。
2Taichu-LLM-2B在文本理解、内容创作、对话问答等能力有着显著提升。Taichu-LLM-2B具备2B规模参数量,适合处理文生生成类轻量化任务。
3Taichu-O1通过多模态交互和强化学习实现类人思维链,支持复杂决策推演,在保持高精度输出的同时展现可模型推理的思维路径,适用于策略分析与深度思考等场景。
4Taichu-VL融合了图像理解、知识迁移、逻辑归因等能力,在图文问答领域表现突出。
5Taichu-VLR-3BTaichuVL系列的推理系列。参数量为3B,与传统的指令调优模型相比,具备思考和推理能力,尤其是在图像理解、图文问答等领域表现更为突出。
6Taichu-VLR-7BTaichuVL系列的推理系列。参数量为7B,与传统的指令调优模型相比,具备思考和推理能力,尤其是在图像理解、图文问答等领域表现更为突出。
7Taichu-ASR能够准确识别和理解人类语言,实时将语音转换为文本,支持多种场景下的语音输入和交互,如会议记录、语音搜索等‌。
8Taichu-TTS能够将文本转换为自然语音,优化了合成速度和语音质量‌,广泛应用于智能家居、内容创作和人机交互等领域‌。
9Taichu-text2Image基于紫东太初多模态大模型的先进AI技术,能够根据文本描述生成高质量图像。该模型结合了文本、图像等多模态信息,具备强大的跨模态理解和生成能力。
10Taichu-2.0-Turbo提升了模型复杂推理能力,可以用于长文本理解和创作、数学计算、代码生成,逻辑推理等复杂文本应用场景。
11DeepSeek-R1DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。
12DeepSeek-R1-Distill-Qwen-14BDeepSeek-R1-Distill-Qwen-14B 是基于 Qwen2.5-14B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。
13DeepSeek-R1-Distill-Qwen-32BDeepSeek-R1-Distill-Qwen-32B 是基于 Qwen2.5-32B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在数学、编程和推理等多个领域展现出卓越的性能。
14DeepSeek-R1-Distill-Llama-70BDeepSeek-R1-Distill-Llama-70B 是基于 Llama-3.3-70B-Instruct 经过蒸馏训练得到的模型。该模型是 DeepSeek-R1 系列的一部分,通过使用 DeepSeek-R1 生成的样本进行微调,在数学、编程和推理等多个领域展现出优秀的性能。
15QWQ-32BQwen 系列中等规模的推理模型。与传统的指令调优模型相比,具备思考和推理能力的 QwQ 在下游任务中,尤其是在解决难题时,能够显著提升性能。
16LLaMA3-8Bllama3是Meta在2024年4月18日公开发布的大型语言模型,llama3-8B拥有80亿参数,平台支持微调训练。
17LLaMA2-7Bllama2系列是来自Meta开发并公开发布的大型语言模型。平台支持微调训练。
18Gemma-2BGemma 是 Google 开发的轻量级语言大模型,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
19Gemma-7BGemma 是 Google 开发的轻量级语言大模型,适合用于各种文本生成任务,能够在资源量较小的端侧设备部署。
20RTMDetRTMDet是一个为实例分割任务设计的高效模型,它通过动态卷积和多层特征提取,实现了高精度的实例分割,同时保持了良好的参数效率和实时性能。
21ViTDetViTDet是一个基于视觉Transformer(ViT)的目标检测模型, 首次将Transformer大规模应用到对象检测任务中,提高了模型的泛化能力和准确性。