InternImage

InternImage

突破大规模视觉基础模型性能极限

InternImage是一款采用可变形卷积技术的大规模视觉基础模型。它在ImageNet分类任务上实现90.1%的Top1准确率,创下开源模型新纪录。在COCO目标检测基准测试中,InternImage达到65.5 mAP,成为唯一突破65.0 mAP的模型。此外,该模型在涵盖分类、检测和分割等任务的16个重要视觉基准数据集上均展现出卓越性能,树立了多个领域的新标杆。

InternImage大规模视觉模型目标检测图像分类语义分割Github开源项目
<p> <a href="./README_CN.md">[中文版本]</a> </p> 我们目前收到了大量问题,我们的团队将逐一检查并解决这些问题,请保持关注。

INTERN-2.5:多模态多任务通用大模型

PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC PWC InternImage的官方实现:

《InternImage: 使用可变形卷积探索大规模视觉基础模型》

[论文] [中文博客]

亮点

  • :thumbsup: 最强大的开源视觉通用骨干网络模型,参数规模高达30亿
  • 🏆 在ImageNet上达到90.1%的Top1准确率,是开源模型中最高的
  • 🏆 在COCO基准数据集上的目标检测任务中达到65.5 mAP,是唯一一个超过65.0 mAP的模型

相关项目

基础模型

  • Uni-Perceiver:用于零样本和少样本任务的通用感知预训练统一架构
  • Uni-Perceiver v2:用于大规模视觉和视觉语言任务的通用模型
  • M3I-Pretraining:通过最大化多模态互信息的一阶段预训练范式
  • InternVL:迄今为止最大的开源视觉/视觉语言基础模型(14B)

自动驾驶

  • BEVFormer:基于相机的3D检测的前沿基线
  • BEVFormer v2:通过透视监督将现代图像骨干网络适配到鸟瞰图识别

在挑战赛中的应用

新闻

  • 2024年1月22日: 🚀 InternImage支持DCNv4
  • 2023年3月14日: 🚀 "INTERN-2.5"发布!
  • 2023年2月28日: 🚀 InternImage被CVPR 2023接收!
  • 2022年11月18日: 🚀 InternImage-XL与BEVFormer v2结合,在nuScenes仅相机任务上达到63.4 NDS的最佳性能。
  • 2022年11月10日: 🚀 InternImage-H在COCO检测test-dev上达到新纪录65.4 mAP,在ADE20K上达到62.9 mIoU,大幅超越之前的模型。

历史

  • 其他下游任务的模型/API
  • 支持CVPR 2023端到端自动驾驶研讨会,见此处
  • 支持Segment Anything
  • 支持提取中间特征,见此处
  • 使用DeepSpeed进行低成本训练,见此处
  • DCNv3算子的免编译.whl包,见此处
  • InternImage-H(1B)/G(3B)
  • 分类/检测/分割模型的TensorRT推理
  • InternImage系列的分类代码
  • InternImage-T/S/B/L/XL ImageNet-1K预训练模型
  • InternImage-L/XL ImageNet-22K预训练模型
  • InternImage-T/S/B/L/XL检测和实例分割模型
  • InternImage-T/S/B/L/XL语义分割模型

简介

"INTERN-2.5"是由商汤科技和上海人工智能实验室联合发布的强大多模态多任务通用模型。它由大规模视觉基础模型"InternImage"、预训练方法"M3I-Pretraining"、通用解码器"Uni-Perceiver"系列和用于自动驾驶感知的通用编码器"BEVFormer"系列组成。

<div align=left> <img src='https://yellow-cdn.veclightyear.com/835a84d5/0454ea6a-bcef-491f-9fa3-89f8f172f871.png' width=900> </div>

应用

🌅 图像模态任务

"INTERN-2.5"在ImageNet基准数据集上仅使用公开可用数据就达到了90.1%的Top-1准确率。除了谷歌和微软使用额外数据集训练的两个未公开模型外,"INTERN-2.5"是唯一一个达到90.0%以上Top-1准确率的开源模型,也是世界上规模最大的模型。

"INTERN-2.5"在COCO目标检测基准数据集上以65.5的惊人mAP超越了世界上所有其他模型,是世界上唯一一个超过65 mAP的模型。

"INTERN-2.5"在其他16个重要的视觉基准数据集上也展示了世界最佳性能,涵盖了分类、检测和分割等广泛任务,成为多个领域表现最佳的模型。

性能

  • 分类
<table border="1" width="90%"> <tr align="center"> <th colspan="1"> 图像分类</th><th colspan="2"> 场景分类 </th><th colspan="1">长尾分类</th> </tr> <tr align="center"> <th>ImageNet</th><th>Places365</th><th>Places 205</th><th>iNaturalist 2018</th> </tr> <tr align="center"> <th>90.1</th><th>61.2</th><th>71.7</th><th>92.3</th> </tr> </table>
  • 检测
<table border="1" width="90%"> <tr align="center"> <th colspan="4">常规目标检测</th><th colspan="3">长尾目标检测</th><th colspan="1">自动驾驶目标检测</th><th colspan="1">密集目标检测</th> </tr> <tr align="center"> <th>COCO</th><th>VOC 2007</th><th>VOC 2012</th><th>OpenImage</th><th>LVIS minival</th><th>LVIS val</th><th>BDD100K</th><th>nuScenes</th><th>CrowdHuman</th> </tr> <tr align="center"> <th>65.5</th><th>94.0</th><th>97.2</th><th>74.1</th><th>65.8</th><th>63.2</th><th>38.8</th><th>64.8</th><th>97.2</th> </tr> </table>
  • 分割
<table border="1" width="90%"> <tr align="center"> <th colspan="3">语义分割</th><th colspan="1">街道分割</th><th colspan="1">RGBD分割</th> </tr> <tr align="center"> <th>ADE20K</th><th>COCO Stuff-10K</th><th>Pascal Context</th><th>CityScapes</th><th>NYU Depth V2</th> </tr> <tr align="center"> <th>62.9</th><th>59.6</th><th>70.3</th><th>86.1</th><th>69.7</th> </tr> </table> <br>

🌁 📖 图像和文本跨模态任务

图像-文本检索:"INTERN-2.5"能够根据文本内容要求快速定位和检索语义最相关的图像。这种能力可应用于视频和图像集合,并可进一步结合目标检测框,实现多种应用,帮助用户快速便捷地找到所需的图像资源。例如,它可以在相册中返回文本指定的相关图像。

图像转文本:"INTERN-2.5"在图像描述、视觉问答、视觉推理和光学字符识别等多个视觉到文本任务方面具有强大的理解能力。例如,在自动驾驶场景中,它可以增强场景感知和理解能力,协助车辆判断交通信号状态、道路标志等信息,为车辆决策和规划提供有效的感知信息支持。

性能

<table border="1" width="90%"> <tr align="center"> <th colspan="1">图像描述</th><th colspan="2">微调图像-文本检索</th><th colspan="1">零样本图像-文本检索</th> </tr> <tr align="center"> <th>COCO Caption</th><th>COCO Caption</th><th>Flickr30k</th><th>Flickr30k</th> </tr> <tr align="center"> <th>148.2</th><th>76.4</th><th>94.8</th><th>89.1</th> </tr> </table> <br>

发布的模型

<details> <summary> 开源视觉预训练模型 </summary> <br> <div>
名称预训练预训练分辨率参数量下载
InternImage-LImageNet-22K384x384223Mckpt
InternImage-XLImageNet-22K384x384335Mckpt
InternImage-H联合 427M384x3841.08Bckpt
InternImage-G-384x3843Bckpt
</div> </details> <details> <summary> ImageNet-1K 图像分类 </summary> <br> <div> | 名称 | 预训练 | 分辨率 | top-1准确率 | 参数量 | 浮点运算量 | 下载 | | :------------: | :----------: | :--------: | :---: | :----: | :---: | :---------------------------------------------------------------------------------------------------------------------------------------------------------------: | | InternImage-T | ImageNet-1K | 224x224 | 83.5 | 30M | 5G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_t_1k_224.pth) \| [配置](classification/configs/without_lr_decay/internimage_t_1k_224.yaml) | | InternImage-S | ImageNet-1K | 224x224 | 84.2 | 50M | 8G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_s_1k_224.pth) \| [配置](classification/configs/without_lr_decay/internimage_s_1k_224.yaml) | | InternImage-B | ImageNet-1K | 224x224 | 84.9 | 97M | 16G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_b_1k_224.pth) \| [配置](classification/configs/without_lr_decay/internimage_b_1k_224.yaml) | | InternImage-L | ImageNet-22K | 384x384 | 87.7 | 223M | 108G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_l_22kto1k_384.pth) \| [配置](classification/configs/without_lr_decay/internimage_l_22kto1k_384.yaml) | | InternImage-XL | ImageNet-22K | 384x384 | 88.0 | 335M | 163G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_xl_22kto1k_384.pth) \| [配置](classification/configs/without_lr_decay/internimage_xl_22kto1k_384.yaml) | | InternImage-H | 联合 427M | 640x640 | 89.6 | 1.08B | 1478G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_h_22kto1k_640.pth) \| [配置](classification/configs/without_lr_decay/internimage_h_22kto1k_640.yaml) | | InternImage-G | - | 512x512 | 90.1 | 3B | 2700G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/internimage_g_22kto1k_512.pth) \| [配置](classification/configs/without_lr_decay/internimage_g_22kto1k_512.yaml) | </div> </details> <details> <summary> COCO目标检测和实例分割 </summary> <br> <div> | 主干网络 | 方法 | 调度 | 边界框mAP | 掩码mAP | 参数量 | FLOPs | 下载 | | :------------: | :--------: | :---: | :-----: | :------: | :----: | :---: | :-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------: | | InternImage-T | Mask R-CNN | 1x | 47.2 | 42.5 | 49M | 270G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask_rcnn_internimage_t_fpn_1x_coco.pth) \| [cfg](detection/configs/coco/mask_rcnn_internimage_t_fpn_1x_coco.py) | | InternImage-T | Mask R-CNN | 3x | 49.1 | 43.7 | 49M | 270G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask_rcnn_internimage_t_fpn_3x_coco.pth) \| [cfg](detection/configs/coco/mask_rcnn_internimage_t_fpn_3x_coco.py) | | InternImage-S | Mask R-CNN | 1x | 47.8 | 43.3 | 69M | 340G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask_rcnn_internimage_s_fpn_1x_coco.pth) \| [cfg](detection/configs/coco/mask_rcnn_internimage_s_fpn_1x_coco.py) | | InternImage-S | Mask R-CNN | 3x | 49.7 | 44.5 | 69M | 340G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask_rcnn_internimage_s_fpn_3x_coco.pth) \| [cfg](detection/configs/coco/mask_rcnn_internimage_s_fpn_3x_coco.py) | | InternImage-B | Mask R-CNN | 1x | 48.8 | 44.0 | 115M | 501G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask_rcnn_internimage_b_fpn_1x_coco.pth) \| [cfg](detection/configs/coco/mask_rcnn_internimage_b_fpn_1x_coco.py) | | InternImage-B | Mask R-CNN | 3x | 50.3 | 44.8 | 115M | 501G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask_rcnn_internimage_b_fpn_3x_coco.pth) \| [cfg](detection/configs/coco/mask_rcnn_internimage_b_fpn_3x_coco.py) | | InternImage-L | Cascade | 1x | 54.9 | 47.7 | 277M | 1399G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/cascade_internimage_l_fpn_1x_coco.pth) \| [cfg](detection/configs/coco/cascade_internimage_l_fpn_1x_coco.py) | | InternImage-L | Cascade | 3x | 56.1 | 48.5 | 277M | 1399G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/cascade_internimage_l_fpn_3x_coco.pth) \| [cfg](detection/configs/coco/cascade_internimage_l_fpn_3x_coco.py) | | InternImage-XL | Cascade | 1x | 55.3 | 48.1 | 387M | 1782G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/cascade_internimage_xl_fpn_1x_coco.pth) \| [cfg](detection/configs/coco/cascade_internimage_xl_fpn_1x_coco.py) | | InternImage-XL | Cascade | 3x | 56.2 | 48.8 | 387M | 1782G | [ckpt](https://huggingface.co/OpenGVLab/InternImage/resolve/main/cascade_internimage_xl_fpn_3x_coco.pth) \| [cfg](detection/configs/coco/cascade_internimage_xl_fpn_3x_coco.py) |
主干网络方法边界框mAP (验证集/测试集)参数量FLOPs下载
InternImage-HDINO (TTA)65.0 / 65.42.18B待定待定
InternImage-GDINO (TTA)65.3 / 65.53B待定待定
</div> </details> <details> <summary> ADE20K语义分割 </summary> <br> <div> | 骨干网络 | 方法 | 分辨率 | mIoU (单尺度/多尺度) | 参数量 | 计算量 | 下载链接 | | :------------: | :---------: | :--------: | :----------: | :----: | :---: | :------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------: | | InternImage-T | UperNet | 512x512 | 47.9 / 48.1 | 59M | 944G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/upernet_internimage_t_512_160k_ade20k.pth) \| [配置](segmentation/configs/ade20k/upernet_internimage_t_512_160k_ade20k.py) | | InternImage-S | UperNet | 512x512 | 50.1 / 50.9 | 80M | 1017G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/upernet_internimage_s_512_160k_ade20k.pth) \| [配置](segmentation/configs/ade20k/upernet_internimage_s_512_160k_ade20k.py) | | InternImage-B | UperNet | 512x512 | 50.8 / 51.3 | 128M | 1185G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/upernet_internimage_b_512_160k_ade20k.pth) \| [配置](segmentation/configs/ade20k/upernet_internimage_b_512_160k_ade20k.py) | | InternImage-L | UperNet | 640x640 | 53.9 / 54.1 | 256M | 2526G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/upernet_internimage_l_640_160k_ade20k.pth) \| [配置](segmentation/configs/ade20k/upernet_internimage_l_640_160k_ade20k.py) | | InternImage-XL | UperNet | 640x640 | 55.0 / 55.3 | 368M | 3142G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/upernet_internimage_xl_640_160k_ade20k.pth) \| [配置](segmentation/configs/ade20k/upernet_internimage_xl_640_160k_ade20k.py) | | InternImage-H | UperNet | 896x896 | 59.9 / 60.3 | 1.12B | 3566G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/upernet_internimage_h_896_160k_ade20k.pth) \| [配置](segmentation/configs/ade20k/upernet_internimage_h_896_160k_ade20k.py) | | InternImage-H | Mask2Former | 896x896 | 62.5 / 62.9 | 1.31B | 4635G | [模型](https://huggingface.co/OpenGVLab/InternImage/resolve/main/mask2former_internimage_h_896_80k_cocostuff2ade20k.pth) \| [配置](segmentation/configs/ade20k/mask2former_internimage_h_896_80k_cocostuff2ade20k_ss.py) | </div> </details> <details> <summary> FPS主要结果 </summary> <br> <div>

将分类模型从PyTorch导出到TensorRT

将检测模型从PyTorch导出到TensorRT

将分割模型从PyTorch导出到TensorRT

名称分辨率参数量计算量批次大小为1的FPS (TensorRT)
InternImage-T224x22430M5G156
InternImage-S224x22450M8G129
InternImage-B224x22497M16G116
InternImage-L384x384223M108G56
InternImage-XL384x384335M163G47

在使用mmdeploy将我们的PyTorch模型转换为TensorRT之前,请确保您已正确构建DCNv3自定义算子。您可以使用以下命令进行构建:

export MMDEPLOY_DIR=/the/root/path/of/MMDeploy # 准备我们的自定义算子,您可以在InternImage/tensorrt/modulated_deform_conv_v3找到它 cp -r modulated_deform_conv_v3 ${MMDEPLOY_DIR}/csrc/mmdeploy/backend_ops/tensorrt # 构建自定义算子 cd ${MMDEPLOY_DIR} mkdir -p build && cd build cmake -DCMAKE_CXX_COMPILER=g++-7 -DMMDEPLOY_TARGET_BACKENDS=trt -DTENSORRT_DIR=${TENSORRT_DIR} -DCUDNN_DIR=${CUDNN_DIR} .. make -j$(nproc) && make install # 构建自定义算子后安装mmdeploy cd ${MMDEPLOY_DIR} pip install -e .

有关构建自定义算子的更多详细信息,请参阅此文档

</div> </details>

引用

如果本工作对您的研究有帮助,请考虑引用以下BibTeX条目。

@article{wang2022internimage, title={InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions}, author={Wang, Wenhai and Dai, Jifeng and Chen, Zhe and Huang, Zhenhang and Li, Zhiqi and Zhu, Xizhou and Hu, Xiaowei and Lu, Tong and Lu, Lewei and Li, Hongsheng and others}, journal={arXiv preprint arXiv:2211.05778}, year={2022} } @inproceedings{zhu2022uni, title={Uni-perceiver: Pre-training unified architecture for generic perception for zero-shot and few-shot tasks}, author={Zhu, Xizhou and Zhu, Jinguo and Li, Hao and Wu, Xiaoshi and Li, Hongsheng and Wang, Xiaohua and Dai, Jifeng}, booktitle={CVPR}, pages={16804--16815}, year={2022} }

@article{zhu2022uni, 标题={Uni-perceiver-moe: 使用条件型专家混合系统学习稀疏通用模型}, 作者={朱靖国 and 朱西州 and 王文海 and 王小华 and 李弘盛 and 王晓刚 and 戴继峰}, 期刊={arXiv预印本 arXiv:2206.04674}, 年份={2022} }

@article{li2022uni, 标题={Uni-Perceiver v2: 用于大规模视觉和视觉语言任务的通用模型}, 作者={李昊 and 朱靖国 and 蒋晓虎 and 朱西州 and 李弘盛 and 袁春 and 王小华 and 乔宇 and 王晓刚 and 王文海 and 其他}, 期刊={arXiv预印本 arXiv:2211.09808}, 年份={2022} }

@article{yang2022bevformer, 标题={BEVFormer v2: 通过透视监督将现代图像骨干网络适配到鸟瞰视角识别}, 作者={杨晨宇 and 陈云涛 and 田浩 and 陶晨鑫 and 朱西州 and 张兆翔 and 黄高 and 李弘扬 and 乔宇 and 卢乐为 and 其他}, 期刊={arXiv预印本 arXiv:2211.10439}, 年份={2022} }

@article{su2022towards, 标题={迈向全面预训练:通过最大化多模态互信息}, 作者={苏伟杰 and 朱西州 and 陶晨鑫 and 卢乐为 and 李斌 and 黄高 and 乔宇 and 王晓刚 and 周杰 and 戴继峰}, 期刊={arXiv预印本 arXiv:2211.09807}, 年份={2022} }

@inproceedings{li2022bevformer, 标题={BEVFormer: 通过时空变换器从多相机图像学习鸟瞰视角表示}, 作者={李志琦 and 王文海 and 李弘扬 and 谢恩泽 and 司马重豪 and 陆通 and 乔宇 and 戴继峰}, 会议={ECCV}, 页码={1--18}, 年份={2022}, }

编辑推荐精选

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

热门AI工具AI办公办公工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

模型训练热门AI工具内容创作智能问答AI开发讯飞星火大模型多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

热门AI工具生产力协作转型TraeAI IDE
咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

AI助手热门AI工具AI创作AI辅助写作讯飞绘文内容运营个性化文章多平台分发
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

Hunyuan3D-2

Hunyuan3D-2

高分辨率纹理 3D 资产生成

Hunyuan3D-2 是腾讯开发的用于 3D 资产生成的强大工具,支持从文本描述、单张图片或多视角图片生成 3D 模型,具备快速形状生成能力,可生成带纹理的高质量 3D 模型,适用于多个领域,为 3D 创作提供了高效解决方案。

3FS

3FS

一个具备存储、管理和客户端操作等多种功能的分布式文件系统相关项目。

3FS 是一个功能强大的分布式文件系统项目,涵盖了存储引擎、元数据管理、客户端工具等多个模块。它支持多种文件操作,如创建文件和目录、设置布局等,同时具备高效的事件循环、节点选择和协程池管理等特性。适用于需要大规模数据存储和管理的场景,能够提高系统的性能和可靠性,是分布式存储领域的优质解决方案。

下拉加载更多