GMI Cloud 教程:手机端也能玩转 AI 翻译!Para 翻译接入 Inference Engine API!
GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Minimax、DeepSeek、GPT OSS、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。 欢迎来到!🎉🎉🎉 GMI Cloud Inference Engine AI 场景实践案例集【语言工具篇】之二。 **本期任务目标:**在 IOS 端的【Para翻译】app 中接入 Inference Engine 的 API。 Para 翻译是一个 IOS 多平台翻译聚合工具,其具有截屏翻译、浮窗划词翻译、自定义翻译风格等功能,其会员用户支持自定义接入第三方 API,灵活满足用户的个性化需求。 本文将以接入 Inference Engine 中的 MiniMax-M2.1 API 为例,详细讲解在 Para 翻译中接入 API 的过程。Token福利文末自行领取!! MiniMax-M2.1 界面: https://console.gmicloud.ai/playground/llm/minimax-m2/bbfb2cb... 01 准备工作:下载 APP Get ready? 在 app store 里搜索并下载 Para 翻译。接入自定义 API 服务需要开通会员哦~ 02 接入步骤 API Connection Guide 第一步,按照如下图所示步骤点击按钮,找到自定义 API 窗口。 第二步,填写 API 信息。 自定义翻译服务名称可以随意命名,建议包含“GMI Cloud”或“Inference Engine”,以及模型名称登关键词,方便查找。 自定义 API 接口地址可直接复制:https://api.gmi-serving.com/v1/chat/completions APIKEY 和模型名称则填写从 GMI Cloud 官网上获得的信息。API KEY、对应的模型设置,需要到 GMI Cloud 官网获取。 模型名称可在模型对应页面找到,比如我这里用的 MiniMax-M2.1,对应界面为: https://console.gmicloud.ai/playground/llm/minimax-m2-1/1ed90... 点击页面下方的“验证”,确认接通后就可以开始使用啦~ 最后,我们再找一个英文界面尝试一下! 首先在 app 里选择好我们刚刚设置的 【GMI 翻译 API】。 打开悬浮窗,进入任意英文界面。 稍等片刻,翻译成功!







