本仓库包含FastAPI的技巧和窍门。如果您有任何认为有用的技巧,欢迎开issue或提交pull request。
考虑在GitHub上赞助我以支持我的工作。有了您的支持,我将能够创作更多像这样的内容。
[!提示] 记得关注这个仓库以接收新技巧的通知。
uvloop
和httptools
默认情况下,[Uvicorn][uvicorn]不包含uvloop
和httptools
,它们比默认的asyncio事件循环和HTTP解析器更快。您可以使用以下命令安装它们:
pip install uvloop httptools
如果它们安装在您的环境中,[Uvicorn][uvicorn]会自动使用它们。
[! 警告]
uvloop
无法在Windows上安装。如果您在本地使用Windows,但在生产环境中使用Linux,可以使用环境标记来避免在Windows上安装uvloop
,例如:uvloop; sys_platform != 'win32'
。
在FastAPI中使用非异步函数会带来性能损失。因此,始终优先使用异步函数。性能损失来自于FastAPI将调用[run_in_threadpool
][run_in_threadpool],它会使用线程池运行函数。
[!注意] 内部实现中,[
run_in_threadpool
][run_in_threadpool]将使用[anyio.to_thread.run_sync
][run_sync]在线程池中运行函数。
[!提示] 线程池中只有40个可用线程。如果您用完了所有线程,您的应用程序将被阻塞。
要更改可用线程的数量,您可以使用以下代码:
import anyio from contextlib import asynccontextmanager from typing import Iterator from fastapi import FastAPI @asynccontextmanager async def lifespan(app: FastAPI) -> Iterator[None]: limiter = anyio.to_thread.current_default_thread_limiter() limiter.total_tokens = 100 yield app = FastAPI(lifespan=lifespan)
您可以在[AnyIO的文档][increase-threadpool]中阅读更多相关信息。
async for
而不是while True
您在网上找到的大多数示例都使用while True
来从WebSocket读取消息。
我认为使用这种不太优雅的表示法主要是因为Starlette文档长期以来没有展示async for
表示法。
不要使用while True
:
from fastapi import FastAPI from starlette.websockets import WebSocket app = FastAPI() @app.websocket("/ws") async def websocket_endpoint(websocket: WebSocket) -> None: await websocket.accept() while True: data = await websocket.receive_text() await websocket.send_text(f"消息内容是:{data}")
您可以使用async for
表示法:
from fastapi import FastAPI from starlette.websockets import WebSocket app = FastAPI() @app.websocket("/ws") async def websocket_endpoint(websocket: WebSocket) -> None: await websocket.accept() async for data in websocket.iter_text(): await websocket.send_text(f"消息内容是:{data}")
您可以在[Starlette文档][websockets-iter-data]中阅读更多相关信息。
WebSocketDisconnect
异常如果您使用while True
表示法,您需要捕获WebSocketDisconnect
。
async for
表示法会自动为您捕获它。
from fastapi import FastAPI from starlette.websockets import WebSocket, WebSocketDisconnect app = FastAPI() @app.websocket("/ws") async def websocket_endpoint(websocket: WebSocket) -> None: await websocket.accept() try: while True: data = await websocket.receive_text() await websocket.send_text(f"消息内容是:{data}") except WebSocketDisconnect: pass
如果您需要在WebSocket断开连接时释放资源,可以使用该异常来处理。
如果您使用的是旧版FastAPI,只有receive
方法会引发WebSocketDisconnect
异常。
send
方法不会引发它。在最新版本中,所有方法都会引发该异常。
在这种情况下,您需要将send
方法也放在try
块内。
AsyncClient
而不是TestClient
由于您在应用程 序中使用async
函数,使用HTTPX的AsyncClient
而不是Starlette的TestClient
会更容易。
from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): return {"Hello": "World"} # 使用TestClient from starlette.testclient import TestClient client = TestClient(app) response = client.get("/") assert response.status_code == 200 assert response.json() == {"Hello": "World"} # 使用AsyncClient import anyio from httpx import AsyncClient, ASGITransport async def main(): async with AsyncClient(transport=ASGITransport(app=app), base_url="http://test") as client: response = await client.get("/") assert response.status_code == 200 assert response.json() == {"Hello": "World"} anyio.run(main)
如果您使用生命周期事件(on_startup
、on_shutdown
或lifespan
参数),可以使用[asgi-lifespan
][asgi-lifespan]包来运行这些事件。
from contextlib import asynccontextmanager from typing import AsyncIterator import anyio from asgi_lifespan import LifespanManager from httpx import AsyncClient, ASGITransport from fastapi import FastAPI @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[None]: print("启动应用") yield print("停止应用") app = FastAPI(lifespan=lifespan) @app.get("/") async def read_root(): return {"Hello": "World"} async def main(): async with LifespanManager(app) as manager: async with AsyncClient(transport=ASGITransport(app=manager.app)) as client: response = await client.get("/") assert response.status_code == 200 assert response.json() == {"Hello": "World"} anyio.run(main)
[!注意] 考虑通过GitHub Sponsors支持[
asgi-lifespan
][asgi-lifespan]的创建者[Florimond Manca][florimondmanca] 。
app.state
不久前,FastAPI开始支持[生命周期状态],它定义了一种标准方式来管理需要在启动时创建并在请求-响应周期中使用的对象。
不再推荐使用app.state
。您应该改用[生命周期状态]。
使用app.state
时,您会这样做:
from contextlib import asynccontextmanager from typing import AsyncIterator from fastapi import FastAPI, Request from httpx import AsyncClient @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[None]: async with AsyncClient(app=app) as client: app.state.client = client yield app = FastAPI(lifespan=lifespan) @app.get("/") async def read_root(request: Request): client = request.app.state.client response = await client.get("/") return response.json()
使用生命周期状态时,您会这样做:
from collections.abc import AsyncIterator from contextlib import asynccontextmanager from typing import Any, TypedDict, cast from fastapi import FastAPI, Request from httpx import AsyncClient class State(TypedDict): client: AsyncClient @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[State]: async with AsyncClient(app=app) as client: yield {"client": client} app = FastAPI(lifespan=lifespan) @app.get("/") async def read_root(request: Request) -> dict[str, Any]: client = cast(AsyncClient, request.state.client) response = await client.get("/") return response.json()
如果您想找出阻塞事件循环的端点,可以启用AsyncIO调试模式。
启用后,当一个任务执行时间超过100毫秒时,Python会打印一条警告消息。
使用PYTHONASYNCIODEBUG=1 python main.py
运行以下代码:
import os import time import uvicorn from fastapi import FastAPI app = FastAPI() @app.get("/") async def read_root(): time.sleep(1) # 阻塞调用 return {"Hello": "World"} if __name__ == "__main__": uvicorn.run(app, loop="uvloop")
如果您调用该端点,您将看到以下消息:
INFO: Started server process [19319] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://127.0.0.1:8000 (Press CTRL+C to quit) INFO: 127.0.0.1:50036 - "GET / HTTP/1.1" 200 OK Executing <Task finished name='Task-3' coro=<RequestResponseCycle.run_asgi() done, defined at /uvicorn/uvicorn/protocols/http/httptools_impl.py:408> result=None created at /uvicorn/uvicorn/protocols/http/httptools_impl.py:291> took 1.009 seconds
您可以在官方文档中阅读更多相关信息。
BaseHTTPMiddleware
[BaseHTTPMiddleware
][base-http-middleware]是在FastAPI中创建中间件最简单的方法。
[!注意]
@app.middleware("http")
装饰器是BaseHTTPMiddleware
的包装器。
BaseHTTPMiddleware
曾存在一些问题,但最新版本中大多数问题已经修复。
尽管如此,使用它仍然会带来性能损失。
为了避免性能损失,您可以实现[纯ASGI中间件]。缺点是实现起来更复杂。 查看Starlette的文档了解如何实现[纯ASGI中间件]。
如果函数是非异步的,并且你将其用作依赖项,它将在线程中运行。
在以下示例中,http_client
函数将在线程中运行:
from collections.abc import AsyncIterator from contextlib import asynccontextmanager from httpx import AsyncClient from fastapi import FastAPI, Request, Depends @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[dict[str, AsyncClient]]: async with AsyncClient() as client: yield {"client": client} app = FastAPI(lifespan=lifespan) def http_client(request: Request) -> AsyncClient: return request.state.client @app.get("/") async def read_root(client: AsyncClient = Depends(http_client)): return await client.get("/")
要在事件循环中运行,你需要将函数改为异步:
# ... async def http_client(request: Request) -> AsyncClient: return request.state.client # ...
作为读者的练习,让我们进一步了解如何检查正在运行的线程。
你可以使用python main.py
运行以下代码:
from collections.abc import AsyncIterator from contextlib import asynccontextmanager import anyio from anyio.to_thread import current_default_thread_limiter from httpx import AsyncClient from fastapi import FastAPI, Request, Depends @asynccontextmanager async def lifespan(app: FastAPI) -> AsyncIterator[dict[str, AsyncClient]]: async with AsyncClient() as client: yield {"client": client} app = FastAPI(lifespan=lifespan) # 将此函数改为异步,并重新运行此应用程序。 def http_client(request: Request) -> AsyncClient: return request.state.client @app.get("/") async def read_root(client: AsyncClient = Depends(http_client)): ... async def monitor_thread_limiter(): limiter = current_default_thread_limiter() threads_in_use = limiter.borrowed_tokens while True: if threads_in_use != limiter.borrowed_tokens: print(f"使用中的线程数: {limiter.borrowed_tokens}") threads_in_use = limiter.borrowed_tokens await anyio.sleep(0) if __name__ == "__main__": import uvicorn config = uvicorn.Config(app="main:app") server = uvicorn.Server(config) async def main(): async with anyio.create_task_group() as tg: tg.start_soon(monitor_thread_limiter) await server.serve() anyio.run(main)
如果你调用该端点,你将看到以下消息:
❯ python main.py INFO: Started server process [23966] INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on http://127.0.0.1:8000 (Press CTRL+C to quit) 使用中的线程数: 1 INFO: 127.0.0.1:57848 - "GET / HTTP/1.1" 200 OK 使用中的线程数: 0
将def http_client
替换为async def http_client
并重新运行应用程序。
你将不会看到使用中的线程数: 1
的消息,因为该函数在事件循环中运行。
[!提示] 你可以使用我构建的[FastAPI Dependency]包,明确指定依赖项何时应该在线程中运行。
AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。
AI小说写作助手,一站式润色、改写、扩写
蛙蛙写作—国内先进的AI写作平台,涵盖小说、学术、社交媒体等多场景。提供续写、改写、润色等功能,助力创作者高效优化写作流程。界面简洁,功能全面,适合各类写作者提升内容品质和工作效率。
全能AI智能助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再 有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1
科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获 取信息、解决问题,满足多样化使用场景。
一种基于大语言模型的高效单流解耦语音令牌文本到语音 合成模型
Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。
AI助力,做PPT更简单!
咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。
选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。
专业的AI公文写作平台,公文写作神器
AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。
最新AI工具、AI资讯
独家AI资源、AI项目落地
微信扫一扫关注公众号