分享
L1 玩转书生大模型 API 与 MCP
输入“/”快速插入内容
✅
L1 玩转书生大模型 API 与
MC
P
用户1672
用户1672
用户5418
用户5418
用户8250
用户8250
2月5日修改
本指南将带您深入探索如何在书生开发机上使用 Intern-S1
Pro
API
,
并结合 MCP(Model Control Protocol)实现突破性的 AI 功能扩展。从传统的对话交互到具备文件操作、外部数据获取能力的智能助手,让我们一起解锁 AI 的无限潜能。
1.
前
置准备
1. 获取 API KEY
Intern 系列模型提供免费的 OpenAI 兼容格式 API。获取步骤如下:
1.
访问
https://internlm.intern-ai.org.cn/api/tokens
2.
确保使用正常注册且可用的账户
3.
为 API Token 命名并生成
4.
重要提醒
:API Token 只能复制一次,生成后请妥善保管,切勿在代码中显式暴露
2. 开发机配置
在创建开发机界面进行如下配置:
•
镜像选择
:Cuda12.8-conda
•
GPU 配置
:10% A100
本节课程不需要显存,故最小资源即可。
2.
快速开始
环境安装
代码块
Plain Text
conda activate base
pip install openai requests
2.1
文本生成
Intern API 兼容 OpenAI API,为最新的
Intern-
S1-Pro
模型提供了一个简单的接口,用于文本生成、自然语言处理、计算机视觉等。本示例是文生文,根据提示生成文本输出——像您在使用网页端
Intern
一样。
t2t.py
Python
from openai import OpenAI
client = OpenAI(
api_key="eyJ0eXxx",
# 此处传token,不带Bearer
base_url="https://chat.intern-ai.org.cn/api/v1/",
)
completion = client.chat.completions.create(
model="intern-s1-pro",
messages=[
{
"role": "user",
"content": "你是什么模型,介绍一下你自己"
}
]
)
print(completion.choices[0].message.content)