Anthropic Python SDK 轻松集成AI模型的开发工具
这是一个用于访问Anthropic REST API的Python库,支持Python 3.7+版本。该SDK提供同步和异步客户端,包含完整的请求参数和响应字段类型定义。它支持流式响应、令牌计数和工具使用等功能,并兼容AWS Bedrock和Google Vertex AI平台。此外,SDK还包含错误处理、自动重试和超时设置等高级特性,方便开发者将Anthropic的AI模型集成到Python应用中。
Anthropic Python 库为任何 Python 3.7+ 应用程序提供了便捷访问 Anthropic REST API 的方式。它包含所有请求参数和响应字段的类型定义,并提供由 httpx 驱动的同步和异步客户端。
REST API 文档可在 docs.anthropic.com 上找到。本库的完整 API 可在 api.md 中找到。
# 从 PyPI 安装 pip install anthropic
本库的完整 API 可在 api.md 中找到。
import os from anthropic import Anthropic client = Anthropic( # 这是默认设置,可以省略 api_key=os.environ.get("ANTHROPIC_API_KEY"), ) message = client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", ) print(message.content)
虽然你可以提供 api_key
关键字参数,但我们建议使用 python-dotenv 将 ANTHROPIC_API_KEY="my-anthropic-api-key"
添加到你的 .env
文件中,这样你的 API 密钥就不会存储在源代码管理中。
只需导入 AsyncAnthropic
而不是 Anthropic
,并在每个 API 调用时使用 await
:
import os import asyncio from anthropic import AsyncAnthropic client = AsyncAnthropic( # 这是默认设置,可以省略 api_key=os.environ.get("ANTHROPIC_API_KEY"), ) async def main() -> None: message = await client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", ) print(message.content) asyncio.run(main())
同步和异步客户端的功能在其他方面是相同的。
我们提供使用服务器端事件(SSE)的流式响应支持。
from anthropic import Anthropic client = Anthropic() stream = client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", stream=True, ) for event in stream: print(event.type)
异步客户端使用完全相同的接口。
from anthropic import AsyncAnthropic client = AsyncAnthropic() stream = await client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", stream=True, ) async for event in stream: print(event.type)
本库为流式消息提供了几个便利功能,例如:
import asyncio from anthropic import AsyncAnthropic client = AsyncAnthropic() async def main() -> None: async with client.messages.stream( max_tokens=1024, messages=[ { "role": "user", "content": "说你好!", } ], model="claude-3-opus-20240229", ) as stream: async for text in stream.text_stream: print(text, end="", flush=True) print() message = await stream.get_final_message() print(message.to_json()) asyncio.run(main())
使用 client.messages.stream(...)
进行流式处理会提供各种便利的辅助功能,包括累积和 SDK 特定事件。
或者,你可以使用 client.messages.create(..., stream=True)
,它只返回流中事件的异步迭代器,因此使用更少的内存(它不会为你构建最终的消息对象)。
你可以通过 usage
响应属性查看特定请求的确切使用情况,例如:
message = client.messages.create(...) message.usage # Usage(input_tokens=25, output_tokens=13)
该 SDK 提供对工具使用(又称函数调用)的支持。更多详细信息可以在文档中找到。
如果你使用 bedrock
额外选项安装此库,例如 pip install -U anthropic[bedrock]
,该库还提供对 Anthropic Bedrock API 的支持。
然后你可以导入和实例化一个单独的 AnthropicBedrock
类,其余的 API 是相同的。
from anthropic import AnthropicBedrock client = AnthropicBedrock() message = client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好!", } ], model="anthropic.claude-3-sonnet-20240229-v1:0", ) print(message)
有关更完整的示例,请参见 examples/bedrock.py
。
如果你使用 vertex
额外选项安装此库,例如 pip install -U anthropic[vertex]
,该库还提供对 Anthropic Vertex API 的支持。
然后你可以导入和实例化一个单独的 AnthropicVertex
/AsyncAnthropicVertex
类,它具有与基本 Anthropic
/AsyncAnthropic
类相同的 API。
from anthropic import AnthropicVertex client = AnthropicVertex() message = client.messages.create( model="claude-3-sonnet@20240229", max_tokens=100, messages=[ { "role": "user", "content": "你好!", } ], ) print(message)
有关更完整的示例,请参见 examples/vertex.py
。
嵌套的请求参数是 TypedDicts。响应是 Pydantic 模型,它们还提供了一些辅助方法,例如:
model.to_json()
model.to_dict()
类型化的请求和响应在你的编辑器中提供自动完成和文档。如果你想在 VS Code 中看到类型错误以帮助更早地捕获错误,请将 python.analysis.typeCheckingMode
设置为 basic
。
当库无法连接到 API(例如,由于网络连接问题或超时)时,会引发 anthropic.APIConnectionError
的子类。
当 API 返回非成功状态代码(即 4xx 或 5xx 响应)时,会引发 anthropic.APIStatusError
的子类,其中包含 status_code
和 response
属性。
所有错误都继承自 anthropic.APIError
。
import anthropic from anthropic import Anthropic client = Anthropic() try: client.messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", ) except anthropic.APIConnectionError as e: print("无法连接到服务器") print(e.__cause__) # 一个底层异常,可能在 httpx 中引发。 except anthropic.RateLimitError as e: print("收到 429 状态码;我们应该稍微回退一下。") except anthropic.APIStatusError as e: print("收到了另一个非 200 范围的状态码") print(e.status_code) print(e.response)
错误代码如下:
状态码 | 错误类型 |
---|---|
400 | BadRequestError |
401 | AuthenticationError |
403 | PermissionDeniedError |
404 | NotFoundError |
422 | UnprocessableEntityError |
429 | RateLimitError |
>=500 | InternalServerError |
N/A | APIConnectionError |
某些错误默认会自动重试 2 次,并带有短暂的指数退避。连接错误(例如,由于网络连接问题)、408 请求超时、409 冲突、429 速率限制和 >=500 内部错误默认都会重试。
你可以使用 max_retries
选项来配置或禁用重试设置:
from anthropic import Anthropic # 为所有请求配置默认值: client = Anthropic( # 默认值为 2 max_retries=0, ) # 或者,按请求配置: client.with_options(max_retries=5).messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", )
默认情况下,请求在 10 分钟后超时。你可以使用 timeout
选项配置这个值,它接受一个浮点数或一个 httpx.Timeout
对象:
from anthropic import Anthropic # 为所有请求配置默认值: client = Anthropic( # 20 秒(默认为 10 分钟) timeout=20.0, ) # 更细粒度的控制: client = Anthropic( timeout=httpx.Timeout(60.0, read=5.0, write=10.0, connect=2.0), ) # 按请求覆盖: client.with_options(timeout=5.0).messages.create( max_tokens=1024, messages=[ { "role": "user", "content": "你好,Claude", } ], model="claude-3-opus-20240229", )
超时时会抛出 APITimeoutError
。
注意,超时的请求默认会重试两次。
我们自动发送 anthropic-version
头部,设置为 2023-06-01
。
如果需要,你可以通过在每个请求或客户端对象上设置默认头部来覆盖它。
请注意,这样做可能会导致 SDK 中的类型不正确以及其他意外或未定义的行为。
from anthropic import Anthropic client = Anthropic( default_headers={"anthropic-version": "My-Custom-Value"}, )
我们使用标准库的 logging
模块。
你可以通过设置环境变量 ANTHROPIC_LOG
为 debug
来启用日志记录。
$ export ANTHROPIC_LOG=debug
None
是表示 null
还是缺失在 API 响应中,一个字段可能明确为 null
,或者完全缺失;在这两种情况下,它在这个库中的值都是 None
。你可以使用 .model_fields_set
来区分这两种情况:
if response.my_field is None: if 'my_field' not in response.model_fields_set: print('收到的 json 类似 {},完全没有 "my_field" 键。') else: print('收到的 json 类似 {"my_field": null}。')
可以通过在任何 HTTP 方法调用前加上 .with_raw_response.
前缀来访问"原始"响应对象,例如:
from anthropic import Anthropic client = Anthropic() response = client.messages.with_raw_response.create( max_tokens=1024, messages=[{ "role": "user", "content": "你好,Claude", }], model="claude-3-opus-20240229", ) print(response.headers.get('X-My-Header'))
message = response.parse() # 获取 messages.create()
会返回的对象
print(message.content)
这些方法返回一个 [`LegacyAPIResponse`](https://github.com/anthropics/anthropic-sdk-python/tree/main/src/anthropic/_legacy_response.py) 对象。这是一个遗留类,因为我们在下一个主要版本中会对其进行略微修改。
对于同步客户端,除了 `content` 和 `text` 将变为方法而非属性外,大部分内容将保持不变。在异步客户端中,所有方法都将是异步的。
我们将提供迁移脚本,整体迁移过程应该会很顺利。
#### `.with_streaming_response`
上述接口在发出请求时会立即读取完整的响应体,这可能并不总是你想要的。
要流式传输响应体,请使用 `.with_streaming_response`,它需要一个上下文管理器,并且只有在你调用 `.read()`、`.text()`、`.json()`、`.iter_bytes()`、`.iter_text()`、`.iter_lines()` 或 `.parse()` 时才会读取响应体。在异步客户端中,这些都是异步方法。
因此,`.with_streaming_response` 方法返回一个不同的 [`APIResponse`](https://github.com/anthropics/anthropic-sdk-python/tree/main/src/anthropic/_response.py) 对象,而异步客户端返回一个 [`AsyncAPIResponse`](https://github.com/anthropics/anthropic-sdk-python/tree/main/src/anthropic/_response.py) 对象。
```python
with client.messages.with_streaming_response.create(
max_tokens=1024,
messages=[
{
"role": "user",
"content": "你好,Claude",
}
],
model="claude-3-opus-20240229",
) as response:
print(response.headers.get("X-My-Header"))
for line in response.iter_lines():
print(line)
需要使用上下文管理器以确保响应能够可靠地关闭。
该库已针对便捷访问已记录的 API 进行了类型设置。
如果你需要访问未记录的端点、参数或响应属性,仍然可以使用该库。
要向未记录的端点发送请求,你可以使用 client.get
、client.post
和其他 HTTP 动词方法。发送请求时,客户端的选项(如重试)将被遵守。
import httpx response = client.post( "/foo", cast_to=httpx.Response, body={"my_param": True}, ) print(response.headers.get("x-foo"))
如果你想明确发送额外参数,可以使用 extra_query
、extra_body
和 extra_headers
请求选项。
要访问未记录的响应属性,你可以像 response.unknown_prop
这样访问额外字段。你还可以使用 response.model_extra
以字典形式获取 Pydantic 模型上的所有额外字段。
你可以直接覆盖 httpx 客户端 以根据你的用例进行自定义,包括:
from anthropic import Anthropic, DefaultHttpxClient client = Anthropic( # 或使用 `ANTHROPIC_BASE_URL` 环境变量 base_url="http://my.test.server.example.com:8083", http_client=DefaultHttpxClient( proxies="http://my.test.proxy.example.com", transport=httpx.HTTPTransport(local_address="0.0.0.0"), ), )
你还可以使用 with_options()
在每个请求的基础上自定义客户端:
client.with_options(http_client=DefaultHttpxClient(...))
默认情况下,当客户端被 垃圾回收 时,库会关闭底层的 HTTP 连接。如果需要,你可以使用 .close()
方法手动关闭客户端,或者使用上下文管理器在退出时关闭。
本包通常遵循 SemVer 约定,但某些不向后兼容的更改可能会作为次要版本发布:
我们非常重视向后兼容性,并努力确保你可以依赖平稳的升级体验。
我们热切期待你的反馈;请就问题、错误或建议在 issue 中提出。
Python 3.7 或更高版本。
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率 ,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的 场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读 等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT, 提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。
openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。
最新AI工具、AI资讯
独家AI资 源、AI项目落地
微信扫一扫关注公众号