用于追踪当前AI的使用情况的列表
Awful AI是一个策划的清单,追踪当前AI技术的可怕用途,旨在提高公众对这些技术在社会中误用的意识。该项目收录了导致歧视、误导和侵犯隐私的AI应用案例,并探讨可能的预防技术开发,以期抵制这些负面影响。此外,Awful AI还通过平台,激发公众和研究者之间的讨论,共同推动技术的负责任使用。
awful-ai是一个令人担忧的人工智能应用列表,旨在追踪当前AI技术在社会中的可怕用途,以提高人们对其滥用的认识。该项目由一群关心AI伦理和社会影响的研究人员和开发者维护。
在当前状态下,人工智能存在诸多问题:
尽管存在这些问题,但越来越多令人担忧的AI应用正在出现。awful-ai项目旨在追踪记录这些应用,以引发讨论并推动预防技术的发展。
awful-ai项目涵盖了多个领域的有问题AI应用,主要包括:
歧视:如基于种族、性别等的偏见算法
影响与虚假信息:如深度伪造、假新闻机器人等
监视:如面部识别、步态分析等侵犯隐私的技术
数据犯罪:如未经许可使用艺术家作品训练AI模型
社会信用系统:如中国的社会信用评分系统
误导性平台:如过度夸大AI能力的展示机器人
加速气候紧急状况:如助长化石燃料开采的AI应用
自主武器系统:如AI驱动的杀伤性武器
通过系统性地记录和分析这些有问题的AI应用,awful-ai项目有助于:
提高公众对AI潜在危害的认识
促进对AI伦理和监管的讨论
推动预防性技术的发展,以应对AI滥用
为政策制定者和研究人员提供参考信息
鼓励AI开发者更负责任地设计和部署AI系统