TrOCR 模型是一个编码器-解码器模型,由图像 Transformer 充当编码器,文本 Transformer 充当解码器。图像编码器是使用 BEiT 的权重进行初始化的,而文本解码器则是使用 RoBERTa 的权重进行初始化。
图像被呈现给模型作为一系列固定大小的图块(分辨率为 16x16),这些图块被线性嵌入。在将序列提供给 Transformer 编码器的层之前,还会添加绝对位置嵌入。接下来,Transformer 文本解码器自回归地生成标记。


(TrOCR 架构,摘自原始论文)
克隆存储库并确保已安装 conda 或 miniconda,然后进入克隆存储库的目录并运行以下命令:
conda env create -n trocr --file environment.yml conda activate trocr
这将安装所有必要的库。
在没有 GPU 的情况下进行训练:
强烈建议使用 CUDA GPU,但也可以在 CPU 上完成所有操作。在这种情况下,请使用 environment-cpu.yml 文件进行安装。如果进程终止时出现警告 "killed",请减小批处理大小以适应工作内存。
有三种模式:推理(inference)、验证(validation)和训练(training)。它们三者都可以从正确路径中的本地模型开始(参见 src/constants/paths),也可以使用来自 Huggingface 的预训练模型。默认情况下,推理和验证使用本地模型,而训练则默认使用 Huggingface 模型。
· 推理(预测):
python -m src predict <image_files> # predict image files using the trained local model python -m src predict data/img1.png data/img2.png # list all image files python -m src predict data/* # also works with shell expansion python -m src predict data/* --no-local-model # uses the pretrained huggingface model
· 验证:
python -m src validate # uses pretrained local model python -m src validate --no-local-model # loads pretrained model from huggingface
· 训练:
python -m src train # starts with pretrained model from huggingface python -m src train --local-model # starts with pretrained local model
对于验证和训练,输入图像应位于 train 和 val 目录中,标签应位于 gt/labels.csv 文件中。在 CSV 文件中,每一行应包括图像名称,然后以结束,例如 img1.png, a(如有必要,用引号括起来)。
如果要从其他位置读取标签也很简单。只需在 src/dataset.py 中的 load_filepaths_and_labels 函数中添加必要的代码。
要选择训练数据的子样本作为验证数据,可以使用以下命令:
find train -type f | shuf -n <num of val samples> | xargs -I '{}' mv {} val
如果您想将预测结果作为更大项目的一部分使用,可以直接使用 main 中 TrocrPredictor 提供的接口。为此,请确保以 Python 模块的形式运行所有代码。
以下是代码示例:
from PIL import Image from trocr.src.main import TrocrPredictor # load images image_names = ["data/img1.png", "data/img2.png"] images = [Image.open(img_name) for img_name in image_names] # directly predict on Pillow Images or on file names model = TrocrPredictor() predictions = model.predict_images(images) predictions = model.predict_for_file_names(image_names) # print results for i, file_name in enumerate(image_names): print(f'Prediction for {file_name}: {predictions[i]}')
通常情况下,应该很容易调整代码以适应其他输入格式或用例。学习率、批量大小、训练周期数、日志记录、单词长度:src/configs/constants.py输入路径、模型检查点路径:src/configs/paths.py不同的标签格式:src/dataset.py:load_filepaths_and_labels单词长度常量非常重要。为了方便批量训练,所有标签都需要填充到相同的长度。可能需要进行一些实验。对我们来说,填充到 8 的长度效果很好。
如果要更改模型的特定内容,可以向 transformers 接口提供一个 TrOCRConfig 对象。有关更多详细信息,请参阅 https://huggingface.co/docs/transformers/model_doc/trocr#transformers.TrOCRConfig
https://github.com/rsommerfeld/trocr#training-without-gpu
关注「开源AI项目落地」公众号



免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合 作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号