创新中心
个人中心
创新中心
个人中心

《2024年人工智能指数报告》系列文章四:负责任的AI

阿里云创新中心> 创业资讯> 《2024年人工智能指数报告》系列文章四:负责任的AI

《2024年人工智能指数报告》系列文章四:负责任的AI

AI研译所 2024-04-30 12:06:31 5153
斯坦福大学人工智能研究院最新发布的《2024年人工智能指数报告》提供了对当前社会中人工智能(AI)发展和影响的全面审视。

斯坦福大学人工智能研究院于最近发布了《2024年人工智能指数报告》(《Artificial Intelligence Index Report 2024》)。为我们提供了一个全面深入AI的视角,以审视人工智能(AI)在当前社会中的发展和影响。今天是阿里云AI研译所系列文章的第四篇,聚焦报告中第三章节的核心观点,主题为「负责任的AI」。

第3章:负责任的AI

AI技术正迅速成为我们生活中不可或缺的一部分,无论是教育、经济还是医疗等关键领域,其关键决策越来越多地依赖于算法的分析和预测。尽管这一发展为我们带来了巨大的益处,但同时它也潜伏着风险。鉴于此,过去一年中,关于如何负责任地发展和应用AI系统的讨论格外热烈。AI社群现在更加注重深入评估AI系统的社会影响,并努力为受到影响的个体和群体减轻潜在的风险和负面后果。

本章着眼于四大关键负责任的AI领域内的最新趋势、研究成果和关键基准,包括隐私保护与数据治理、透明度与可解释性、安全防护与可靠性以及公平性原则的落实。面对2024年全球将有近40亿人参与投票的现实,本章还针对AI在选举中的使用和对政治过程可能产生的更广泛影响进行了专门探讨。

当AI技术越来越多地涉足关乎人类社会重大决策的领域时,确保其发展符合伦理标准和负责任原则变得尤为重要。从确保数据隐私安全,到提高系统透明度和可解释性,再到确保技术应用的公平性和安全性,每一个方面都是促进AI健康发展的关键因素。

此外,随着AI技术在政治决策过程中的使用日益增加,如何确保这些技术的应用不会损害公共利益和民主价值,也成为了本章的一大重点。AI的使用可能会对选举的公正性和透明度带来新的挑战,同时也提供了创新解决方案,以提高政治参与度和促进公民对政治过程的理解。

1. 大型语言模型在责任性评估上的标准化和系统化严重不足。

根据AI指数的最新研究发现,构建负责任AI的报告标准化工作严重不足。OpenAI、Google和Anthropic等行业领头羊在对其开发的模型进行评估时,多采用不同的负责任AI基准测试,这种不统一的评估标准加大了对顶尖AI模型潜在风险和限制进行系统比较的难度。

image

2. 假视频的制作既简单又难于识别。

政治性的深度伪造视频已对全球多地造成了影响,近期研究指出,目前用于识别这类伪造视频的AI技术准确性参差不齐。同时,如CounterCloud等新兴项目展示出了利用AI轻易创作和散布虚假信息的能力,暴露了在检测和对抗这种伪造内容方面的挑战。

image

3. 研究人群在大语言模型上揭示更为复杂的安全隐患。

之前,安全性测试主要聚焦于探索对人直觉上合理的对抗性命令。然而,今年的研究展现了更隐蔽的方式来诱导大型语言模型(LLMs)产生负面行为,譬如不断重复无关紧要的词汇。这些新发现不仅拓展了我们对于模型潜在漏洞的认识,也为未来的安全研究指明了新方向。

image

4. 全球企业对AI风险的关注日增。

一项审视负责任AI实践的全球调查凸显了企业对于AI所带来的隐私、安全及可靠性问题的深切关切。调查结果指出,虽然许多机构已开始着手应对这些挑战,但大多数公司此刻只实现了对这些问题的部分缓解。这揭示了一个行业内普遍存在的现象:虽然已认识到AI相关风险,实际的风险管理措施仍需进一步强化和广泛实施。

image

5. 大型语言模型有可能产出涉及版权的内容。

不少研究者发现,当前流行的大型语言模型生成的内容可能包括版权作品的一部分,例如《纽约时报》文章的片段或电影中的镜头。模型产出这些内容是否违反了版权法,成为了版权领域亟需解决的法律问题之一。

image

6. AI开发者在透明性上的不足影响着研究进展。

根据最新发布的基础模型透明度指数,AI开发社区在透明度方面表现不佳,尤其是在关于训练数据和研究方法的公开披露上。这种透明度的缺失已成为了阻碍深入探索AI系统稳定性与安全性研究的主要障碍。 image

7. 评估AI的极端风险显得尤为困难。

在过去的一年里,AI领域的学者与从业者就应更加关注立即性的模型风险,如算法导致的歧视问题,抑或是潜在的长期根本性威胁之间进行了激烈讨论。在科学基础上做出哪些主张并据此制定政策的过程充满挑战。已存在的短期风险的具体性与长期存在威胁的理论性构成了鲜明对比,这使得评估面临更多复杂性。

image

8. AI相关的不当行为事件数量不断攀升。

依据跟踪AI误用情况的数据库记录显示,2023年有123起相关事件被报告,相比2022年增长了32.3%。自2013年起,这类事件的数量增长已超过20倍。

image

9. ChatGPT表现出政治倾向性。

近期的研究发现,ChatGPT在美国显示出对民主党的偏好,在英国则更偏向工党。这一结果招致人们对于该工具可能左右用户政治立场的能力表示关切。

image

可以点击以下链接获取原报告文件:https://startup.aliyun.com/special/download?&id=9454

文章来源:https://aiindex.stanford.edu/report/


《2024年人工智能指数报告》系列文章一:概述

《2024年人工智能指数报告》系列文章二:研究与开发

《2024年人工智能指数报告》系列文章三:技术性能

《2024年人工智能指数报告》系列文章五:经济

《2024年人工智能指数报告》系列文章六:科学与医学的AI革新

《2024年人工智能指数报告》系列文章七:教育

《2024年人工智能指数报告》系列文章八:政策与治理

《2024年人工智能指数报告》系列文章九:AI的多样性

《2024年人工智能指数报告》系列文章十:公众舆论


image

#阿里云 #创新创业 #创业扶持 #创业资讯

我们关注国内外最热的创新创业动态,提供一站式的资讯服务,实时传递行业热点新闻、深度评测以及前瞻观点,帮助各位创业者掌握新兴技术趋势及行业变革,洞察未来科技走向。

>>>点击进入 更多创新创业资讯

版权声明: 创新中心创新赋能平台中,除来源为“创新中心”的文章外,其余文章均来自所标注的来源,版权归原作者或来源方所有,且已获得相关授权,创新中心「创业资讯」平台不拥有其著作权,亦不承担相应法律责任。如果您发现本平台中有涉嫌侵权的内容,可填写「投诉表单」进行举报,一经查实,本平台将立刻删除涉嫌侵权内容。