本仓库包含FastAPI的技巧和窍门。如果您有任何认为有用的技巧,欢迎开issue或提交pull request。
考虑在GitHub上赞助我以支持我的工作。有了您的支持,我将能够创作更多像这样的内容。
[!提示] 记得关注这个仓库以接收新技巧的通知。
uvloop
和httptools
默认情况下,[Uvicorn][uvicorn]不包含uvloop
和httptools
,它们比默认的asyncio事件循环和HTTP解析器更快。您可以使用以下命令安装它们:
pip install uvloop httptools
如果它们安装在您的环境中,[Uvicorn][uvicorn]会自动使用它们。
[! 警告]
uvloop
无法在Windows上安装。如果您在本地使用Windows,但在生产环境中使用Linux,可以使用环境标记来避免在Windows上安装uvloop
,例如:uvloop; sys_platform != 'win32'
。
在FastAPI中使用非异步函数会带来性能损失。因此,始终优先使用异步函数。性能损失来自于FastAPI将调用[run_in_threadpool
][run_in_threadpool],它会使用线程池运行函数。
[!注意] 内部实现中,[
run_in_threadpool
][run_in_threadpool]将使用[anyio.to_thread.run_sync
][run_sync]在线程池中运行函数。
[!提示] 线程池中只有40个可用线程。如果您用完了所有线程,您的应用程序将被阻塞。
要更改可用线程的数量,您可以使用以下代码:
import anyio from contextlib import asynccontextmanager from typing import Iterator from fastapi import FastAPI @asynccontextmanager async def lifespan(app: FastAPI) -> Iterator[None]: limiter = anyio.to_thread.current_default_thread_limiter() limiter.total_tokens = 100 yield app = FastAPI(lifespan=lifespan)
您可以在[AnyIO的文档][increase-threadpool]中阅读更多相关信息。
async for
而不是while True
您在网上找到的大多数示例都使用while True
来从WebSocket读取消息。
我认为使用这种不太优雅的表示法主要是因为Starlette文档长期以来没有展示async for
表示法。
不要使用while True
:
from fastapi import FastAPI from starlette.websockets import WebSocket app = FastAPI() @app.websocket("/ws") async def websocket_endpoint(websocket: WebSocket) -> None: await websocket.accept() while True: data = await websocket.receive_text() await websocket.send_text(f"消息内容是:{data}")
您可以使用async for
表示法:
from fastapi import FastAPI from starlette.websockets import WebSocket app = FastAPI() @app.websocket("/ws") async def websocket_endpoint(websocket: WebSocket) -> None: await websocket.accept() async for data in websocket.iter_text(): await websocket.send_text(f"消息内容是:{data}")
您可以在[Starlette文档][websockets-iter-data]中阅读更多相关信息。
WebSocketDisconnect
异常如果您使用while True
表示法,您需要捕获WebSocketDisconnect
。
async for
表示法会自动为您捕获它。
from fastapi import FastAPI from starlette.websockets import WebSocket, WebSocketDisconnect app = FastAPI() @app.websocket("/ws") async def websocket_endpoint(websocket: WebSocket) -> None: await websocket.accept() try: while True: data = await websocket.receive_text() await websocket.send_text(f"消息内容是:{data}") except WebSocketDisconnect: pass
如果您需要在WebSocket断开连接时释放资源,可以使用该异常来处理。
如果您使用的是旧版FastAPI,只有receive
方法会引发WebSocketDisconnect
异常。
send
方法不会引发它。在最新版本中,所有方法都会引发该异常。
在这种情况下,您需要将send
方法也放在try
块内。
AsyncClient
而不是TestClient
由于您在应用程 序中使用async
函数,使用HTTPX的AsyncClient
而不是Starlette的TestClient
会更容易。
from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): return {"Hello": "World"} # 使用TestClient from starlette.testclient import TestClient client = TestClient(app) response = client.get("/") assert response.status_code == 200 assert response.json() == {"Hello": "World"} # 使用AsyncClient import anyio from httpx import AsyncClient, ASGITransport async def main(): async with AsyncClient(transport=ASGITransport(app=app), base_url="http://test") as client: response = await client.get("/") assert response.status_code == 200 assert response.json() == {"Hello": "World"} anyio.run(main)
如果您使用生命周期事件(on_startup
、on_shutdown
或lifespan
参数),可以使用[asgi-lifespan
][asgi-lifespan]包来运行这些事件。
from contextlib import asynccontextmanager from typing import AsyncIterator import anyio from asgi_lifespan import LifespanManager from httpx import AsyncClient, ASGITransport from fastapi import FastAPI @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[None]: print("启动应用") yield print("停止应用") app = FastAPI(lifespan=lifespan) @app.get("/") async def read_root(): return {"Hello": "World"} async def main(): async with LifespanManager(app) as manager: async with AsyncClient(transport=ASGITransport(app=manager.app)) as client: response = await client.get("/") assert response.status_code == 200 assert response.json() == {"Hello": "World"} anyio.run(main)
[!注意] 考虑通过GitHub Sponsors支持[
asgi-lifespan
][asgi-lifespan]的创建者[Florimond Manca][florimondmanca] 。
app.state
不久前,FastAPI开始支持[生命周期状态],它定义了一种标准方式来管理需要在启动时创建并在请求-响应周期中使用的对象。
不再推荐使用app.state
。您应该改用[生命周期状态]。
使用app.state
时,您会这样做:
from contextlib import asynccontextmanager from typing import AsyncIterator from fastapi import FastAPI, Request from httpx import AsyncClient @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[None]: async with AsyncClient(app=app) as client: app.state.client = client yield app = FastAPI(lifespan=lifespan) @app.get("/") async def read_root(request: Request): client = request.app.state.client response = await client.get("/") return response.json()
使用生命周期状态时,您会这样做:
from collections.abc import AsyncIterator from contextlib import asynccontextmanager from typing import Any, TypedDict, cast from fastapi import FastAPI, Request from httpx import AsyncClient class State(TypedDict): client: AsyncClient @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[State]: async with AsyncClient(app=app) as client: yield {"client": client} app = FastAPI(lifespan=lifespan) @app.get("/") async def read_root(request: Request) -> dict[str, Any]: client = cast(AsyncClient, request.state.client) response = await client.get("/") return response.json()
如果您想找出阻塞事件循环的端点,可以启用AsyncIO调试模式。
启用后,当一个任务执行时间超过100毫秒时,Python会打印一条警告消息。
使用PYTHONASYNCIODEBUG=1 python main.py
运行以下代码:
import os import time import uvicorn from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): time.sleep(1) # 阻塞调用 return {"Hello": "World"} if __name__ == "__main__": uvicorn.run(app, loop="uvloop")
如果您调用该端点,您将看到以下消息:
INFO: Started server process [19319] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://127.0.0.1:8000 (Press CTRL+C to quit) INFO: 127.0.0.1:50036 - "GET / HTTP/1.1" 200 OK Executing <Task finished name='Task-3' coro=<RequestResponseCycle.run_asgi() done, defined at /uvicorn/uvicorn/protocols/http/httptools_impl.py:408> result=None created at /uvicorn/uvicorn/protocols/http/httptools_impl.py:291> took 1.009 seconds
您可以在官方文档中阅读更多相关信息。
BaseHTTPMiddleware
[BaseHTTPMiddleware
][base-http-middleware]是在FastAPI中创建中间件最简单的方法。
[!注意]
@app.middleware("http")
装饰器是BaseHTTPMiddleware
的包装器。
BaseHTTPMiddleware
曾存在一些问题,但最新版本中大多数问题已经修复。
尽管如此,使用它仍然会带来性能损失。
为了避免性能损失,您可以实现[纯ASGI中间件]。缺点是实现起来更复杂。 查看Starlette的文档了解如何实现[纯ASGI中间件]。
如果函数是非异步的,并且你将其用作依赖项,它将在线程中运行。
在以下示例中,http_client
函数将在线程中运行:
from collections.abc import AsyncIterator from contextlib import asynccontextmanager from httpx import AsyncClient from fastapi import FastAPI, Request, Depends @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[dict[str, AsyncClient]]: async with AsyncClient() as client: yield {"client": client} app = FastAPI(lifespan=lifespan) def http_client(request: Request) -> AsyncClient: return request.state.client @app.get("/") async def read_root(client: AsyncClient = Depends(http_client)): return await client.get("/")
要在事件循环中运行,你需要将函数改为异步:
# ... async def http_client(request: Request) -> AsyncClient: return request.state.client # ...
作为读者的练习,让我们进一步了解如何检查正在运行的线程。
你可以使用python main.py
运行以下代码:
from collections.abc import AsyncIterator from contextlib import asynccontextmanager import anyio from anyio.to_thread import current_default_thread_limiter from httpx import AsyncClient from fastapi import FastAPI, Request, Depends @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[dict[str, AsyncClient]]: async with AsyncClient() as client: yield {"client": client} app = FastAPI(lifespan=lifespan) # 将此函数改为异步,并重新运行此应用程序。 def http_client(request: Request) -> AsyncClient: return request.state.client @app.get("/") async def read_root(client: AsyncClient = Depends(http_client)): ... async def monitor_thread_limiter(): limiter = current_default_thread_limiter() threads_in_use = limiter.borrowed_tokens while True: if threads_in_use != limiter.borrowed_tokens: print(f"使用中的线程数: {limiter.borrowed_tokens}") threads_in_use = limiter.borrowed_tokens await anyio.sleep(0) if __name__ == "__main__": import uvicorn config = uvicorn.Config(app="main:app") server = uvicorn.Server(config) async def main(): async with anyio.create_task_group() as tg: tg.start_soon(monitor_thread_limiter) await server.serve() anyio.run(main)
如果你调用该端点,你将看到以下消息:
❯ python main.py INFO: Started server process [23966] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://127.0.0.1:8000 (Press CTRL+C to quit) 使用中的线程数: 1 INFO: 127.0.0.1:57848 - "GET / HTTP/1.1" 200 OK 使用中的线程数: 0
将def http_client
替换为async def http_client
并重新运行应用程序。
你将不会看到使用中的线程数: 1
的消息,因为该函数在事件循环中运行。
[!提示] 你可以使用我构建的[FastAPI Dependency]包,明确指定依赖项何时应该在线程中运行。
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
AI数字人视频创作平台
Keevx 一款开箱即用的AI数字人视频创作平台,广泛适用于电商广告、企业培训与社媒宣传,让全球企业与个人创作者无需拍摄剪辑,就能快速生成多语言、高质量的专业视频。
一站式AI创作平台
提供 AI 驱动的图片、视频生成及数字人等功能,助力创意创作
AI办公助手,复杂任务高效处理
AI办公助手,复杂任务高效处理。办公效率低?扣子空间AI助手支持播客生成、PPT制作、网页开发及报告写作,覆盖科研、商业、舆情等领域的专家Agent 7x24小时响应,生活工作无缝切换,提升50%效率!
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习 生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号