rtdl-num-embeddings

rtdl-num-embeddings

数值特征嵌入技术助力表格深度学习性能提升

rtdl-num-embeddings项目提出了一种处理表格深度学习数值特征的嵌入技术。该方法将连续标量特征转换为向量表示,并在主干网络中混合使用,有效提升了模型性能。这种技术适用于多种模型架构,尤其是在使用嵌入的简单MLP模型中表现突出。通过解决真实世界表格数据中连续特征分布不规则的问题,该方法改善了模型整体优化效果,为表格深度学习领域提供了新的研究方向。

数值特征嵌入表格深度学习神经网络MLPNeurIPSGithub开源项目

数值特征嵌入在表格深度学习中的应用(NeurIPS 2022)

:scroll: arXiv   :package: Python包   :books: RTDL (表格深度学习的其他项目)

这是论文"表格深度学习中数值特征嵌入的应用"的官方实现。

摘要

一句话总结:在主干网络(如MLP、Transformer等)中混合之前,将原始标量连续特征转换为向量可以提高表格神经网络的下游性能。

<img src="https://yellow-cdn.veclightyear.com/835a84d5/e264d856-7e7b-4f7e-a9ca-798361930dcc.png" width=80%>

左:以两个连续特征作为输入的普通MLP。 <br> 右:同样的MLP,但现在对连续特征进行了嵌入。

更详细地说:

  • 嵌入连续特征意味着在主干网络中混合之前,将它们从标量表示转换为向量表示,如上图所示。
  • 事实证明,连续特征的嵌入可以(显著)提高表格深度学习模型的性能
  • 嵌入适用于任何常规的主干网络
  • 特别是,具有嵌入的简单MLP可以与重型Transformer模型相媲美,同时效率显著提高。
  • 尽管在参数数量上有形式上的开销,但在实践中,嵌入在许多情况下是完全可以负担的。在足够大的数据集和/或足够多的特征数量和/或足够严格的延迟要求下,与嵌入相关的新开销可能会成为一个问题。
<details> <summary><b>为什么嵌入有效?</b></summary>

严格来说,没有单一的解释。 显然,嵌入有助于处理与连续特征相关的各种挑战,并改善模型的整体优化性能。

特别是,不规则分布的连续特征(及其与标签的不规则联合分布)在现实世界的表格数据中很常见, 它们给传统的表格深度学习模型带来了重大的基本优化挑战。 一个很好的参考用于理解这一挑战 (以及通过转换输入空间来解决这些挑战的一个很好的例子) 是这篇论文 "傅里叶特征让网络在低维域中学习高频函数"

然而,目前还不清楚不规则分布是否是嵌入有用的唯一原因。

</details>

Python包

Python包位于package/目录中, 是在实践中使用本文和进行未来工作的推荐方式。


文档其余部分:


如何探索指标和超参数

exp/目录包含了论文中使用的各种模型和数据集的大量结果和(调优的)超参数。

指标

例如,让我们探索MLP模型的指标。 首先,让我们加载报告(report.json文件):

import json from pathlib import Path import pandas as pd df = pd.json_normalize([ json.loads(x.read_text()) for x in Path('exp').glob('mlp/*/0_evaluation/*/report.json') ])

现在,对于每个数据集,让我们计算在所有随机种子上平均的测试分数:

print(df.groupby('config.data.path')['metrics.test.score'].mean().round(3))

输出与论文中的表3完全一致:

config.data.path
data/adult              0.854
data/california        -0.495
data/churn              0.856
data/covtype            0.964
data/fb-comments       -5.686
data/gesture            0.632
data/higgs-small        0.720
data/house         -32039.399
data/microsoft         -0.747
data/otto               0.818
data/santander          0.912
Name: metrics.test.score, dtype: float64

超参数

上述方法也可以用于探索超参数,以直观了解不同算法的典型超参数值。 例如,这是如何计算MLP模型的中位数调优学习率:

[!注意] 对于某些算法(例如MLP、MLP-LR、MLP-PLR),更新的项目提供了更多可以以类似方式探索的结果。例如,请参见 关于TabR的这篇论文

[!警告] 谨慎使用此方法。 在研究超参数值时:

  1. 注意异常值。
  2. 查看原始未聚合的值,以直观了解典型值。
  3. 对于高级概览,绘制分布图和/或计算多个分位数。
print(df[df['config.seed'] == 0]['config.training.lr'].quantile(0.5)) # 输出: 0.0002716544410603358

如何重现结果

[!重要]

本节较长。 使用GitHub或文本编辑器中的"大纲"功能以获取本节的概览。

设置环境

软件

准备工作:

  • 根据您的设置,您可能需要更改下面的CUDA相关命令和设置
  • 确保/usr/local/cuda-11.1/bin始终在您的PATH环境变量中
  • 安装conda
export PROJECT_DIR=<仓库根目录的绝对路径> # 示例: export PROJECT_DIR=/home/myusername/repositories/num-embeddings git clone https://github.com/yandex-research/tabular-dl-num-embeddings $PROJECT_DIR cd $PROJECT_DIR conda create -n num-embeddings python=3.9.7 conda activate num-embeddings pip install torch==1.10.1+cu111 -f https://download.pytorch.org/whl/torch_stable.html pip install -r requirements.txt # 如果以下命令不成功,请更新conda conda env config vars set PYTHONPATH=${PYTHONPATH}:${PROJECT_DIR} conda env config vars set PROJECT_DIR=${PROJECT_DIR} # 以下命令将":/usr/local/cuda-11.1/lib64"附加到LD_LIBRARY_PATH; # 如果您的LD_LIBRARY_PATH已经包含其他CUDA的路径,那么"="后的内容 # 应该是"<不包含您的cuda路径的LD_LIBRARY_PATH>:/usr/local/cuda-11.1/lib64" conda env config vars set LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:/usr/local/cuda-11.1/lib64 conda env config vars set CUDA_HOME=/usr/local/cuda-11.1 conda env config vars set CUDA_ROOT=/usr/local/cuda-11.1 # (可选)获取使用cmd+y切换暗模式的快捷方式 conda install nodejs jupyter labextension install jupyterlab-theme-toggle conda 停用 conda 激活 num-embeddings

数据

许可证:通过下载我们的数据集,您接受其所有组件的许可。 我们不会在这些许可之外施加任何新的限制。 您可以在论文中找到来源列表。

cd $PROJECT_DIR wget "https://www.dropbox.com/s/r0ef3ij3wl049gl/data.tar?dl=1" -O num_embeddings_data.tar tar -xvf num_embeddings_data.tar

如何复现结果

以下代码复现了在加利福尼亚房价数据集上使用MLP的结果。其他算法和数据集的流程完全相同。

# 如果要使用GPU,必须明确设置CUDA_VISIBLE_DEVICES
export CUDA_VISIBLE_DEVICES="0"

# 创建"官方"配置的副本
cp exp/mlp/california/0_tuning.toml exp/mlp/california/1_tuning.toml

# 运行调优(在GPU上大约需要30-60分钟)
python bin/tune.py exp/mlp/california/1_tuning.toml

# 使用15个不同的随机种子评估单个模型
python bin/evaluate.py exp/mlp/california/1_tuning 15

# 评估集成模型(默认为三个大小为五的集成)
python bin/ensemble.py exp/mlp/california/1_evaluation

# 然后使用bin/results.ipynb查看获得的结果

了解仓库

代码概览

代码组织如下:

  • bin
    • train4.py 用于神经网络(实现了论文中的所有嵌入和骨干网络)
    • xgboost_.py 用于XGBoost
    • catboost_.py 用于CatBoost
    • tune.py 用于调优
    • evaluate.py 用于评估
    • ensemble.py 用于集成
    • results.ipynb 用于总结结果
    • datasets.py 用于构建数据集分割
    • synthetic.py 用于生成GBDT友好的合成数据集
    • train1_synthetic.py 用于合成数据的实验
  • lib 包含bin中程序使用的通用工具
  • exp 包含实验配置和结果(指标、调优后的配置等)。嵌套文件夹的名称遵循论文中的名称(例如:exp/mlp-plr对应论文中的MLP-PLR模型)。
  • package 包含此论文的Python包

技术说明

  • 运行脚本时必须明确设置CUDA_VISIBLE_DEVICES
  • 对于保存和加载配置,使用lib.dump_configlib.load_config而不是直接使用TOML库

运行脚本

运行脚本的常见模式是:

python bin/my_script.py a/b/c.toml

其中a/b/c.toml是输入配置文件(配置)。输出将位于a/b/c。配置结构通常遵循bin/my_script.py中的Config类。

还有一些脚本接受命令行参数而不是配置(例如bin/{evaluate.py,ensemble.py})。

train0.py vs train1.py vs train3.py vs train4.py

复现结果时需要全部使用,但未来工作只需要train4.py,因为:

  • bin/train1.py实现了bin/train0.py的所有功能及更多
  • bin/train3.py实现了bin/train1.py的所有功能及更多
  • bin/train4.py实现了bin/train3.py的所有功能及更多

要查看某个实验使用了哪个脚本,请检查相应调优配置的"program"字段。例如,这是加利福尼亚房价数据集上MLP的调优配置:exp/mlp/california/0_tuning.toml。该配置表明使用了bin/train0.py。这意味着exp/mlp/california/0_evaluation中的配置专门与bin/train0.py兼容。要验证这一点,您可以将其中一个复制到单独的位置并传递给bin/train0.py

mkdir exp/tmp
cp exp/mlp/california/0_evaluation/0.toml exp/tmp/0.toml
python bin/train0.py exp/tmp/0.toml
ls exp/tmp/0

如何引用

@inproceedings{gorishniy2022embeddings,
    title={On Embeddings for Numerical Features in Tabular Deep Learning},
    author={Yury Gorishniy and Ivan Rubachev and Artem Babenko},
    booktitle={{NeurIPS}},
    year={2022},
}

编辑推荐精选

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

AI工具TraeAI IDE协作生产力转型热门
问小白

问小白

全能AI智能助手,随时解答生活与工作的多样问题

问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。

热门AI助手AI对话AI工具聊天机器人
Transly

Transly

实时语音翻译/同声传译工具

Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。

讯飞智文

讯飞智文

一键生成PPT和Word,让学习生活更轻松

讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。

AI办公办公工具AI工具讯飞智文AI在线生成PPTAI撰写助手多语种文档生成AI自动配图热门
讯飞星火

讯飞星火

深度推理能力全新升级,全面对标OpenAI o1

科大讯飞的星火大模型,支持语言理解、知识问答和文本创作等多功能,适用于多种文件和业务场景,提升办公和日常生活的效率。讯飞星火是一个提供丰富智能服务的平台,涵盖科技资讯、图像创作、写作辅助、编程解答、科研文献解读等功能,能为不同需求的用户提供便捷高效的帮助,助力用户轻松获取信息、解决问题,满足多样化使用场景。

热门AI开发模型训练AI工具讯飞星火大模型智能问答内容创作多语种支持智慧生活
Spark-TTS

Spark-TTS

一种基于大语言模型的高效单流解耦语音令牌文本到语音合成模型

Spark-TTS 是一个基于 PyTorch 的开源文本到语音合成项目,由多个知名机构联合参与。该项目提供了高效的 LLM(大语言模型)驱动的语音合成方案,支持语音克隆和语音创建功能,可通过命令行界面(CLI)和 Web UI 两种方式使用。用户可以根据需求调整语音的性别、音高、速度等参数,生成高质量的语音。该项目适用于多种场景,如有声读物制作、智能语音助手开发等。

咔片PPT

咔片PPT

AI助力,做PPT更简单!

咔片是一款轻量化在线演示设计工具,借助 AI 技术,实现从内容生成到智能设计的一站式 PPT 制作服务。支持多种文档格式导入生成 PPT,提供海量模板、智能美化、素材替换等功能,适用于销售、教师、学生等各类人群,能高效制作出高品质 PPT,满足不同场景演示需求。

讯飞绘文

讯飞绘文

选题、配图、成文,一站式创作,让内容运营更高效

讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。

热门AI辅助写作AI工具讯飞绘文内容运营AI创作个性化文章多平台分发AI助手
材料星

材料星

专业的AI公文写作平台,公文写作神器

AI 材料星,专业的 AI 公文写作辅助平台,为体制内工作人员提供高效的公文写作解决方案。拥有海量公文文库、9 大核心 AI 功能,支持 30 + 文稿类型生成,助力快速完成领导讲话、工作总结、述职报告等材料,提升办公效率,是体制打工人的得力写作神器。

openai-agents-python

openai-agents-python

OpenAI Agents SDK,助力开发者便捷使用 OpenAI 相关功能。

openai-agents-python 是 OpenAI 推出的一款强大 Python SDK,它为开发者提供了与 OpenAI 模型交互的高效工具,支持工具调用、结果处理、追踪等功能,涵盖多种应用场景,如研究助手、财务研究等,能显著提升开发效率,让开发者更轻松地利用 OpenAI 的技术优势。

下拉加载更多