KANbeFair是一个旨在对KAN(Kernel Adaptive Network)和MLP(多层感知机)进行更加公平和全面比较的研究项目。该项目由研究人员Runpeng Yu、Weihao Yu和Xinchao Wang发起,目的是通过严格控制参数数量和计算量,在多种任务上系统地比较这两种神经网络模型的性能。
KAN是近年来提出的一种新型神经网络架构,声称在某些任务上性能优于传统的MLP。然而,之前的比较研究往往存在不公平或不全面的问题。KANbeFair项目正是为了解决这一问题而生,致力于提供一个更加客观和深入的比较基准。
KANbeFair项目采用了以下几个关键策略来确保比较的公平性和全面性:
严格控制参数数量和FLOPs(浮点运算次数),确保KAN和MLP模型在计算资源上处于同等水平。
涵盖多个应用领域的任务,包括:
使用统一的训练和评估流程,包括相同的优化器、学习率策略等。
进行详细的消融实验,分析不同组件对模型性能的影响。
研究团队开发了一个灵活的实验框架,可以方便地配置和运行各种比较实验。所有代码和数据集都已在GitHub上开源,以便其他研究者复现结果和进行进一步的探索。
通过大量的实验和分析,KANbeFair项目得出了以下几个重要发现:
MLP在大多数任务中表现优于KAN
除了符号公式表示任务外,MLP在机器学习、计算机视觉、自然语言处理和音频处理等领域的任务中,普遍表现优于KAN。这一发现与之前一些研究的结论有所不同,凸显了公平比较的重要性。

KAN的主要优势在于B样条激活函数
通过对网络架构进行消融实验,研究发现KAN的主要优势来源于其使用的B样条激活函数。当将B样条激活函数应用到MLP中时,MLP的性能可以显著提升,在某些任务上甚至超过了KAN。

B样条激活函数对符号公式表示任务特别有效
在符号公式表示任务中,使用B样条激活函数的MLP能够达到或超过KAN的性能。这表明B样条函数在捕捉复杂的数学关系方面具有独特优势。
KAN在持续学习场景中的遗忘问题更为严重
在标准的类增量持续学习设置下,KAN表现出比MLP更严重的遗忘问题。这一发现与KAN原始论文中的结论不同,需要进一步研究。
KANbeFair项目提供了详细的代码实现和实验复现指南。以下是一些关键的技术细节:
环境配置
项目使用CUDA 12.2进行GPU加速,可通过提供的environment.yml文件快速搭建实验环境:
cd KANbeFair conda env create -f environment.yml
运行实验
使用以下命令可以运行各种比较实验:
cd src python train.py \ --model KAN \ # 或MLP,指定模型架构 --layers_width 10 10 \ --dataset MNIST \ --batch-size 128 \ --epochs 20 \ --lr 0.001 \ --seed 1314 \ --activation_name gelu \ # 仅对MLP有效 --kan_bspline_grid 20 \ # 仅对KAN有效 --kan_bspline_order 5 \ # 仅对KAN有效 --kan_grid_range -4 4 \ # 仅对KAN有效
参数和FLOPs计算
项目提供了方便的方法来计算模型的参数数量和FLOPs:
import torch from argparse import Namespace from models.mlp import * from models.kanbefair import * from models.bspline_mlp import * # 实例化KANbeFair网络 args_KAN = Namespace(**{ "input_size":28*28, "layers_width":[10,10], "output_size":10, "kan_bspline_grid":20, "kan_bspline_order":5, "kan_shortcut_function":torch.nn.SiLU(), "kan_grid_range":[-1,1] }) model_KAN = KANbeFair(args_KAN) # 计算KAN的参数数量和FLOPs num_parameters_KAN = model_KAN.total_parameters() flops_KAN = model_KAN.total_flops() print(f"KAN: Number of parameters: {num_parameters_KAN:,}; Number of FLOPs: {flops_KAN:,}") # 类似地可以计算MLP的参数数量和FLOPs
KANbeFair项目的研究结果对神经网络架构的选择和设计提供了重要的参考价值:
模型选择指南: 研究结果为不同任务场景下的模型选择提供了明确指导。对于大多数机器学习、计算机视觉、自然语言处理和音频处理任务,MLP仍然是一个强有力的基线模型。而对于涉及复杂数学关系的符号公式表示任务,KAN或配备B样条激活函数的MLP可能更为适合。
激活函数的重要性: 研究凸显了激活函数在神经网络性能中的关键作用。B样条函数的成功应用为设计新型激活函数开辟了新的思路。
公平比较的重要性: KANbeFair项目展示了在神经网络研究中进行公平和全面比较的重要性。这种方法有助于避免对新提出模型的过度乐观估计,为整个领域的健康发展提供了借鉴。
持续学习的挑战: 关于KAN在持续学习中表现不佳的发现,揭示了这一领域仍存在的挑战,需要进一步的研究和改进。
未来的研究方向可能包括:
KANbeFair项目通过严谨的方法学和全面的实验,为KAN和MLP的性能比较提供了新的视角。研究结果不仅有助于实践者在不同场景下做出更明智的模型选择,也为神经网络架构的未来发展指明了方向。随着人工智能技术的不断进步,类似KANbeFair这样的公平比较研究将继续发挥重要作用,推动整个领域的创新和进步.


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进 的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频


实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。


选题、配图、成文,一站式创作,让内容运营更高效
讯飞绘文,一个AI集成平台,支持写作、选题、配图、排版和发布。高效生成适用于各类媒体的定制内容,加速品牌传播,提升内容营销效果。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目 交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


最强AI数据分析助手
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人 工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。


像人一样思考的AI智能体
imini 是一款超级AI智能体,能根据人类指令,自主思考、自主完成、并且交付结果的AI智能体。
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号