DeepLIIF

DeepLIIF

深度学习框架实现免疫组织化学图像的多重荧光转换与定量分析

DeepLIIF是一个开源深度学习框架,用于免疫组织化学(IHC)图像的多重荧光转换和定量分析。它在单步骤中实现染色分离、细胞分割和IHC评分。通过利用IHC和多重免疫荧光配准数据集,DeepLIIF可将IHC图像转换为多重免疫荧光图像,同时提供细胞分割和分类。该项目已部署为云原生平台,支持多种输入格式,并集成MLOps流程,为病理学研究和临床应用提供支持。

DeepLIIF免疫组化深度学习细胞分割多重免疫荧光Github开源项目
<!-- 项目标志 --> <br /> <p align="center"> <img src="https://yellow-cdn.veclightyear.com/0a4dffa0/a8320633-71c6-41f3-ab37-783e2f15d243.png" width="50%"> <h3 align="center"><strong>用于免疫组织化学图像定量的深度学习推断多重免疫荧光</strong></h3> <p align="center"> <a href="https://rdcu.be/cKSBz">Nature MI'22</a> | <a href="https://openaccess.thecvf.com/content/CVPR2022/html/Ghahremani_DeepLIIF_An_Online_Platform_for_Quantification_of_Clinical_Pathology_Slides_CVPR_2022_paper.html">CVPR'22</a> | <a href="https://arxiv.org/abs/2305.16465">MICCAI'23</a> | <a href="https://onlinelibrary.wiley.com/share/author/4AEBAGEHSZE9GDP3H8MN?target=10.1111/his.15048">Histopathology'23</a> | <a href="https://arxiv.org/abs/2405.08169">MICCAI'24</a> | <a href="https://deepliif.org/">云端部署</a> | <a href="https://nadeemlab.github.io/DeepLIIF/">文档</a> | <a href="#support">支持</a> </p> </p>

常规免疫组织化学(IHC)染色评估的生物标志物报告在诊断病理实验室中被广泛用于患者护理。目前,临床报告主要是定性或半定量的。通过创建一个称为DeepLIIF的多任务深度学习框架,我们提供了一个单步解决方案,用于染色脱色/分离、细胞分割和定量单细胞IHC评分。利用同一切片的IHC和多重免疫荧光(mpIF)染色共注册的独特新数据集,我们对低成本且普遍的IHC切片进行分割并转换为更昂贵但信息丰富的mpIF图像,同时为叠加的明场IHC通道提供必要的真实标准。此外,我们引入了一种新的细胞核包膜染色LAP2beta,其细胞覆盖率高(>95%),以改善IHC切片上的细胞描绘/分割和蛋白质表达定量。通过同时将输入的IHC图像转换为清晰/分离的mpIF通道并执行细胞分割/分类,我们展示了我们在清晰的IHC Ki67数据上训练的模型可以推广到更加嘈杂和有伪影的图像,以及其他核和非核标记物,如CD3、CD8、BCL2、BCL6、MYC、MUM1、CD10和TP53。我们在公开可用的基准数据集上以及与病理学家的半定量评分进行了全面评估。在IHC上训练的DeepLIIF可以很好地推广到H&E图像,实现开箱即用的细胞核分割。

DeepLIIF作为免费公开可用的云原生平台(https://deepliif.org)部署,支持Bioformats(支持150多种输入格式)和MLOps流程。我们还发布了**DeepLIIF**的单/多GPU训练、Torchserve/Dask+Torchscript部署和通过Pulumi实现自动扩展(支持1000多个并发连接)的实现;详细信息可以在我们的[文档](https://nadeemlab.github.io/DeepLIIF/)中找到。**DeepLIIF**可以通过[pip安装包](https://github.com/nadeemlab/DeepLIIF/edit/main/README.md#installing-deepliif)并使用deepliif CLI命令在本地运行(需要GPU)。DeepLIIF可以通过https://deepliif.org 网站、通过Python调用云API或通过ImageJ/Fiji插件远程使用(无需GPU);免费云原生平台的详细信息可以在我们的CVPR'22论文中找到。

© 本代码仅供非商业学术用途使用。

版本 总下载量 概述图DeepLIIF流程概述和样本输入IHC(不同的棕色/DAB标记物——BCL2、BCL6、CD10、CD3/CD8、Ki67)及其对应的DeepLIIF生成的苏木精/mpIF模态和分类(阳性(红色)和阴性(蓝色)细胞)分割掩码。(a) DeepLIIF概述。给定IHC输入,我们的多任务深度学习框架同时推断出相应的苏木精通道、mpIF DAPI、mpIF蛋白表达(Ki67、CD3、CD8等)和阳性/阴性蛋白细胞分割,将可解释性和可解释性直接嵌入模型本身,而不是依赖于粗略的激活/注意力图。在分割掩码中,红色细胞表示蛋白表达阳性的细胞(输入IHC中的棕色/DAB细胞),而蓝色细胞代表阴性细胞(输入IHC中的蓝色细胞)。(b) 不同IHC标记物的DeepLIIF生成的苏木精/mpIF模态和分割掩码示例。DeepLIIF经过清晰的IHC Ki67核标记物图像训练后,可以推广到更嘈杂的以及其他IHC核/细胞质标记物图像。

先决条件

  1. Python 3.8
  2. Docker

安装deepliif

可以通过pip安装DeepLIIF:

$ conda create --name deepliif_env python=3.8 $ conda activate deepliif_env (deepliif_env) $ conda install -c conda-forge openjdk (deepliif_env) $ pip install deepliif

该包由两部分组成:

  1. 一个实现用于训练和测试DeepLIIF模型的核心功能的库。
  2. 一个CLI,用于运行常见的批处理操作,包括训练、批量测试和Torchscipt模型序列化。

你可以列出所有可用的命令:

(venv) $ deepliif --help
用法:deepliif [选项] 命令 [参数]...

选项:
  --help  显示此消息并退出

命令:
  prepare-testing-data   准备测试数据
  serialize              使用Torchscript序列化DeepLIIF模型
  test                   测试已训练的模型
  train                  用于多任务图像转换模型的通用训练脚本

注意: 你可能需要安装与你的CUDA版本兼容的PyTorch版本。 否则,只会使用CPU。 访问PyTorch网站了解详情。 你可以通过检查以下代码是否返回True来确认你的安装是否能在GPU上运行:

import torch
torch.cuda.is_available()

训练数据集

对于训练,所有图像集必须为512x512,并组合成3072x512的图像(六张512x512大小的图像水平拼接在一起)。 数据需要按以下顺序排列:

XXX_Dataset 
    ├── train
    └── val

我们在CLI中提供了一个简单的函数来准备训练数据。

  • 准备训练数据,你需要在输入目录中有每个图像的图像数据集(包括IHC、苏木精通道、mpIF DAPI、mpIF Lap2、mpIF标记物和分割掩码)。 单个图像集的六张图像必须具有相同的命名格式,只有表示图像类型的标签名称在它们之间有所不同。标签名称必须分别为:IHC、Hematoxylin、DAPI、Lap2、Marker、Seg。 该命令需要包含图像集数据的目录地址和输出数据集目录的地址。 它首先在给定的输出数据集目录中创建train和validation目录。 然后读取输入目录中的所有图像,并根据给定的validation_ratio将组合后的图像保存在train或validation目录中。
deepliif prepare-training-data --input-dir /path/to/input/images
                               --output-dir /path/to/output/images
                               --validation-ratio 0.2

训练

要训练模型:

deepliif train --dataroot /path/to/input/images 
               --name Model_Name 

python train.py --dataroot /path/to/input/images 
                --name Model_Name 

DP:要训练模型,你可以使用DP。DP是单进程的。这意味着你想使用的所有GPU必须在同一台机器上,这样它们才能包含在同一个进程中 - 除非你编写自己的代码来处理节点间(节点=机器)通信,否则你无法在多个GPU机器之间分配训练。 为了在同一进程中分割和管理多个GPU的工作负载,DP使用多线程。 你可以在这里找到更多关于DP的信息。

使用DP训练模型(以2个GPU(在1台机器上)为例):

deepliif train --dataroot <data_dir> --batch-size 6 --gpu-ids 0 --gpu-ids 1

请注意,batch-size是按每个进程定义的。由于DP是单进程方法,你设置的batch-size就是实际的批量大小。 DDP:要训练模型,可以使用DDP。DDP通常会启动多个进程。 DeepLIIF的代码遵循PyTorch的建议,每个GPU分配1个进程文档)。如果你想为每个进程分配多个GPU,你需要修改DeepLIIF的代码(参见文档)。 尽管DDP有诸多优点,但一个缺点是需要额外的GPU内存用于通信的专用CUDA缓冲区。这里有一个简短的讨论链接。在DeepLIIF的背景下,这意味着可能会出现使用DP时可以使用更大的批量大小的情况,相比之下,DDP使用较小的批量大小可能实际上训练得更快。 你可以在这里找到更多关于DDP的信息。

要在本地机器上使用DDP启动训练,使用deepliif trainlaunch。以2个GPU(在1台机器上)为例:

deepliif trainlaunch --dataroot <数据目录> --batch-size 3 --gpu-ids 0 --gpu-ids 1 --use-torchrun "--nproc_per_node 2"

注意

  1. batch-size是针对每个进程定义的。由于DDP是单进程方法,你设置的batch-size是每个进程的批量大小,实际批量大小将是batch-size乘以你启动的进程数。在上面的例子中,是3 * 2 = 6。
  2. 你仍需要向训练命令提供所有要使用的GPU id。在内部,DeepLIIF在每个进程中使用gpu_ids[local_rank]选择设备。如果你提供--gpu-ids 2 --gpu-ids 3,本地排名为0的进程将使用gpu id 2,本地排名为1的进程将使用gpu id 3。
  3. -t 3 --log_dir <日志目录>不是必需的,但在torchrun中是一个有用的设置,它将每个进程的日志保存到你指定的日志目录。例如:
deepliif trainlaunch --dataroot <数据目录> --batch-size 3 --gpu-ids 0 --gpu-ids 1 --use-torchrun "-t 3 --log_dir <日志目录> --nproc_per_node 2"
  1. 如果你的PyTorch版本低于1.10,DeepLIIF在后端调用torch.distributed.launch。否则,DeepLIIF调用torchrun

序列化模型

安装的deepliif使用Dask对输入的IHC图像进行推理。 在运行test命令之前,必须使用Torchscript序列化模型文件。 要序列化模型文件:

deepliif serialize --model-dir /path/to/input/model/files
                   --output-dir /path/to/output/model/files
  • 默认情况下,模型文件预期位于DeepLIIF/model-server/DeepLIIF_Latest_Model
  • 默认情况下,序列化文件将保存到与输入模型文件相同的目录。

测试

要测试模型:

deepliif test --input-dir /path/to/input/images
              --output-dir /path/to/output/images
              --model-dir /path/to/the/serialized/model
              --tile-size 512

python test.py --dataroot /path/to/input/images
               --results_dir /path/to/output/images
               --checkpoints_dir /path/to/model/files
               --name Model_Name
  • 预训练模型的最新版本可以在这里下载。
  • 在对图像进行测试之前,必须按上述方法序列化模型文件。
  • 序列化的模型文件预期位于DeepLIIF/model-server/DeepLIIF_Latest_Model
  • 测试结果将保存到指定的输出目录,默认为输入目录。
  • 必须指定瓦片大小,用于将图像分割成瓦片进行处理。瓦片大小基于输入图像的分辨率(扫描放大倍数),建议的值是40倍图像使用512的瓦片大小,20倍使用256,10倍使用128。注意,瓦片大小越小,推理所需时间越长。
  • 测试数据集可以在这里下载。

全幻灯片图像(WSI)推理:
对于全幻灯片图像的转换和分割, 你可以简单地使用相同的测试命令, 将包含全幻灯片图像的目录路径作为input-dir。 DeepLIIF自动逐区域读取WSI, 分别转换和分割每个区域,然后拼接这些区域 以创建整个幻灯片图像的转换和分割结果, 然后以ome.tiff格式将所有掩码保存在给定的output-dir中。 根据可用的GPU资源,可以更改region-size。

deepliif test --input-dir /path/to/input/images 
              --output-dir /path/to/output/images 
              --model-dir /path/to/the/serialized/model
              --tile-size 512
              --region-size 20000

如果您愿意,可以使用Torchserve运行模型。 请参阅文档了解如何使用Torchserve部署模型以及运行推理的示例。

Docker

我们提供了一个Dockerfile,可用于在容器内运行DeepLIIF模型。 首先,您需要安装Docker引擎。 安装Docker后,您需要按照以下步骤操作:

  • 此处下载预训练模型并将其放置在DeepLIIF/model-server/DeepLIIF_Latest_Model中。
  • 从docker文件创建docker镜像:
docker build -t cuda/deepliif .

然后将该镜像用作基础。您可以复制并使用它来运行应用程序。应用程序需要一个隔离的环境来运行,称为容器。

  • 创建并运行容器:
 docker run -it -v `pwd`:`pwd` -w `pwd` cuda/deepliif deepliif test --input-dir Sample_Large_Tissues --tile-size 512

从镜像运行容器时,deepliif CLI将可用。 您可以在激活的环境中轻松运行任何CLI命令,并将结果从docker容器复制到主机。

ImageJ插件

如果您没有GPU或适当的硬件访问权限,只想使用ImageJ运行推理,我们还为您创建了一个ImageJ插件以方便使用。

DeepLIIF ImageJ演示

该插件还支持一次提交多个ROI:

DeepLIIF ImageJ ROI演示

云部署

如果您没有GPU或适当的硬件访问权限,也不想安装ImageJ,我们还创建了一个云原生DeepLIIF部署,具有用户友好的界面,可以上传图像、可视化、交互并下载最终结果。

DeepLIIF网站演示

云API端点

DeepLIIF还可以通过端点以编程方式访问,方法是发送包含原始图像文件的多部分编码请求,以及可选参数,包括后处理阈值:

POST /api/infer

文件参数:

  img(必需)
    要运行DeepLIIF的图像。

查询字符串参数:

  resolution
    用于扫描幻灯片的分辨率(10x、20x、40x)。默认为40x。

  pil
    如果存在,使用Pillow而不是Bio-Formats加载图像。Pillow更快,但仅适用于常见图像类型(png、jpeg等)。

  slim
    如果存在,仅返回优化后的分割结果图像。

  nopost
    如果存在,不执行后处理(仅返回推理图像)。

  prob_thresh
    在后处理推断的分割图像时使用的概率阈值。分割图值必须高于此值,才能将像素包含在最终的细胞分割中。有效值为0-254范围内的整数。默认为150。

  size_thresh
    后处理中细胞大小门控的下限阈值。分割的细胞必须拥有比此值更多的像素,才能包含在最终的细胞分割中。有效值为0、正整数或"auto"。"auto"将尝试根据检测到的细胞大小分布自动确定此下限。默认为"auto"。

  size_thresh_upper
    后处理中细胞大小门控的上限阈值。分割的细胞必须拥有少于此值的像素,才能包含在最终的细胞分割中。有效值为正整数或"none"。"none"将在大小门控中不使用上限阈值。默认为"none"。

  marker_thresh
    推断的标记图像对后处理中细胞分类为阳性的影响阈值。如果细胞的任何对应像素在标记图像中高于此阈值,则无论推断的分割图像中的值如何,该细胞都将被分类为阳性。有效值为0-255范围内的整数、"none"或"auto"。"none"将在分类过程中不使用标记图像。"auto"将自动从标记图像确定阈值。默认为"auto"。

例如,在Python中:

import os import json import base64 from io import BytesIO import requests from PIL import Image # 使用主DeepLIIF仓库中的样本图像 images_dir = './Sample_Large_Tissues' filename = 'ROI_1.png' root = os.path.splitext(filename)[0] res = requests.post( url='https://deepliif.org/api/infer', files={ 'img': open(f'{images_dir}/{filename}', 'rb'), }, params={ 'resolution': '40x', }, ) data = res.json() def b64_to_pil(b): return Image.open(BytesIO(base64.b64decode(b.encode()))) 对于data['images']中的每个名称和图像: 使用f'{images_dir}/{root}_{name}.png'作为文件名以写入模式打开文件: 将b64_to_pil(img)转换后的图像以PNG格式保存到文件中 使用f'{images_dir}/{root}_scoring.json'作为文件名以写入模式打开文件: 将data['scoring']以JSON格式写入文件,缩进为2 打印data['scoring']的JSON格式,缩进为2 如果你之前已经对一张图像运行过DeepLIIF,想要使用不同的阈值进行后处理,可以直接调用后处理程序,使用先前推断的结果: POST /api/postprocess 文件参数: img(必需) 运行DeepLIIF的原始图像。 seg_img(必需) DeepLIIF先前生成的推断分割图像。 marker_img(可选) DeepLIIF先前生成的推断标记图像。如果省略此参数,则在分类时不会使用标记图像。 查询字符串参数: resolution 扫描幻灯片的分辨率(10x、20x、40x)。默认为40x。 pil 如果存在,使用Pillow而不是Bio-Formats加载原始图像。Pillow更快,但仅适用于常见图像类型(png、jpeg等)。Pillow始终用于打开seg_img和marker_img文件。 prob_thresh 用于后处理推断分割图像的概率阈值。分割图的值必须高于此值,像素才能包含在最终的细胞分割中。有效值为0-254范围内的整数。默认为150 size_thresh 后处理中细胞大小筛选的下限阈值。分割的细胞必须比此值有更多像素才能包含在最终的细胞分割中。有效值为0、正整数或'auto''auto'将根据检测到的细胞大小分布自动确定此下限。默认为'auto' size_thresh_upper 后处理中细胞大小筛选的上限阈值。分割的细胞必须少于此值的像素才能包含在最终的细胞分割中。有效值为正整数或'none''none'表示不使用上限阈值进行大小筛选。默认为'none' marker_thresh 推断标记图像在后处理分类中将细胞归类为阳性的影响阈值。如果细胞对应的标记图像中任何像素高于此阈值,该细胞将被归类为阳性,而不考虑推断分割图像的值。有效值为0-255范围内的整数、'none''auto''none'表示在分类时不使用标记图像。'auto'将自动从标记图像确定阈值。默认为'auto'。(如果未提供marker_img,此参数无效。) 例如,在Python中: [Python代码示例] ## 合成数据生成 DeepLIIF模型的第一个版本在分离某些大簇中的IHC阳性细胞时存在不足,这是由于我们的训练数据中缺少聚集的阳性细胞。为了向我们的模型注入更多关于聚集阳性细胞的信息,我们提出了一种使用配准数据合成生成IHC图像的新方法。 我们设计了一个基于GAN的模型,该模型接收苏木精通道、mpIF DAPI图像和分割掩码,并生成相应的IHC图像。模型将苏木精通道转换为灰度,以推断更有用的信息(如纹理),并丢弃不必要的信息(如颜色)。苏木精图像指导网络通过保留细胞和背景中伪影的形状和纹理来合成IHC图像的背景。DAPI图像帮助网络识别细胞的位置、形状和纹理,以更好地将细胞与背景分离。分割掩码帮助网络根据细胞类型(阳性细胞:棕色色调,阴性:蓝色色调)指定细胞的颜色。 在下一步中,我们生成具有更多聚集阳性细胞的合成IHC图像。为此,我们通过在分割掩码中选择一定百分比的随机阴性细胞(称为Neg-to-Pos)并将它们转换为阳性细胞来改变分割掩码。下面展示了一些合成IHC图像样本以及原始IHC图像。 ![IHC_Gen_image](https://yellow-cdn.veclightyear.com/0a4dffa0/69e5b00a-7afc-4926-82b2-dfa8065933fd.jpg)*合成IHC图像生成概览。(a) IHC生成器模型的训练样本。(b) 使用训练好的IHC生成器模型合成的一些IHC图像样本。Neg-to-Pos显示了分割掩码中被转换为阳性细胞的阴性细胞百分比。* 我们使用原始IHC图像和合成IHC图像创建了一个新数据集。我们通过将Neg-to-Pos参数设置为50%70%来对数据集中的每张图像进行两次合成。我们使用新数据集重新训练了我们的网络。您可以在[这里](https://zenodo.org/record/4751737/files/DeepLIIF_Latest_Model.zip?download=1)找到新训练的模型。 ## 配准 要对新染色的mpIF和IHC图像进行配准,您可以使用"Registration"目录中的配准框架。请参阅同一目录中提供的README文件了解更多详情。 ## 贡献训练数据 为了训练DeepLIIF,我们使用了一个包含肺和膀胱组织的数据集,其中包括使用ZEISS Axioscan扫描的相同组织的IHC、苏木精、mpIF DAPI、mpIF Lap2和mpIF Ki67图像。这些图像经过缩放并使用仿射变换与固定的IHC图像进行配准,最终得到1264组大小为512x512的配准后的IHC和相应多重图像集。我们随机选择了575组用于训练,91组用于验证,598组用于测试模型。我们还从最近发布的[BCDataset](https://sites.google.com/view/bcdataset)中随机选择并手动分割了41张大小为640x640的图像,该数据集包含Ki67染色的乳腺癌切片,并有Ki67+和Ki67-细胞中心点标注(用于细胞检测而非细胞实例分割任务)。我们将这些图块分割成164张大小为512x512的图像;测试集在肿瘤细胞密度和Ki67指数方面变化很大。您可以在[这里](https://zenodo.org/record/4751737#.YKRTS0NKhH4)找到这个数据集。 我们还在创建一个可自配置版本的DeepLIIF,它将接受任何配准后的H&E/IHC和多重图像作为输入,并产生最佳输出。如果您正在生成或已经生成了同一切片的H&E/IHC和多重染色(新染色),并希望贡献该数据用于DeepLIIF,我们可以进行配准、通过[ImPartial](https://github.com/nadeemlab/ImPartial)进行全细胞多重分割、训练DeepLIIF模型,并将其发布回社区,同时充分认可贡献者的贡献。 - [x] **纪念斯隆凯特琳癌症中心** [用于乳腺癌、肺癌和膀胱癌的AI就绪免疫组织化学和多重免疫荧光数据集](https://zenodo.org/record/4751737#.YKRTS0NKhH4)(**Nature Machine Intelligence'22**) - [x] **莫菲特癌症中心** [用于头颈部鳞状细胞癌的AI就绪多重免疫荧光和多重免疫组织化学数据集](https://wiki.cancerimagingarchive.net/pages/viewpage.action?pageId=70226184)**MICCAI'23** ## 支持 请使用[Image.sc论坛](https://forum.image.sc/tag/deepliif)进行与DeepLIIF相关的讨论和问题。 可以在[GitHub问题](https://github.com/nadeemlab/DeepLIIF/issues)标签页报告错误。 ## 许可 © [Nadeem实验室](https://nadeemlab.org/) - DeepLIIF代码在**Apache 2.0 with Commons Clause**许可下分发,仅供非商业学术目的使用。 ## 致谢 * 本代码受到[PyTorch中的CycleGAN和pix2pix](https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix)的启发。 ## 参考 如果您在研究中发现我们的工作有用,或者使用了部分代码或我们发布的数据集,请引用以下论文:

@article{ghahremani2022deep, title={Deep learning-inferred multiplex immunofluorescence for immunohistochemical image quantification}, author={Ghahremani, Parmida and Li, Yanyun and Kaufman, Arie and Vanguri, Rami and Greenwald, Noah and Angelo, Michael and Hollmann, Travis J and Nadeem, Saad}, journal={Nature Machine Intelligence}, volume={4}, number={4}, pages={401--412}, year={2022}, publisher={Nature Publishing Group} }

@article{ghahremani2022deepliifui, title={DeepLIIF: An Online Platform for Quantification of Clinical Pathology Slides}, author={Ghahremani, Parmida and Marino, Joseph and Dodds, Ricardo and Nadeem, Saad}, journal={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)}, pages={21399--21405}, year={2022} }

@article{ghahremani2023deepliifdataset, title={An AI-Ready Multiplex Staining Dataset for Reproducible and Accurate Characterization of Tumor Immune Microenvironment}, author={Ghahremani, Parmida and Marino, Joseph and Hernandez-Prera, Juan and V. de la Iglesia, Janis and JC Slebos, Robbert and H. Chung, Christine and Nadeem, Saad}, journal={International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI)}, year={2023} }

@article{nadeem2023ki67validationMTC,
  作者 = {Nadeem, Saad 和 Hanna, Matthew G 和 Viswanathan, Kartik 和 Marino, Joseph 和 Ahadi, Mahsa 和 Alzumaili, Bayan 和 Bani, Mohamed-Amine 和 Chiarucci, Federico 和 Chou, Angela 和 De Leo, Antonio 和 Fuchs, Talia L 和 Lubin, Daniel J 和 Luxford, Catherine 和 Magliocca, Kelly 和 Martinez, Germán 和 Shi, Qiuying 和 Sidhu, Stan 和 Al Ghuzlan, Abir 和 Gill, Anthony J 和 Tallini, Giovanni 和 Ghossein, Ronald 和 Xu, Bin},
  标题 = {髓样甲状腺癌中Ki67增殖指数:多种计数方法的比较研究以及图像分析和深度学习平台的验证},
  期刊 = {组织病理学},
  年份 = {2023},
  doi = {https://doi.org/10.1111/his.15048}
}

@article{zehra2024deepliifstitch,
作者 = {Zehra, Talat 和 Marino, Joseph 和 Wang, Wendy 和 Frantsuzov, Grigoriy 和 Nadeem, Saad},
标题 = {重新思考低资源环境下的组织学切片数字化工作流程},
期刊 = {国际医学图像计算与计算机辅助干预会议(MICCAI)},
年份 = {2024}
}

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多