全方位解读「斯坦福 2024 AI指数报告」,附原文 pdf 下载

2024-04-18 星期四

关于

斯坦福 2024 AI指数报告


这是一份影响力很大的报告


内容严谨

《斯坦福 2024 AI 指数报告》旨在追踪、整合、提炼并可视化与人工智能(AI)相关的各类数据。报告提供无偏见、经过严格审查、来源广泛的数据,帮助政策制定者、研究人员、高管、记者及公众深入了解 AI 领域的复杂性和最新动态。

权威可靠

此报告由斯坦福大学人机中心的 AI 指数团队负责编制,得到了全球的认可。它被视为全球最权威和可靠的 AI 数据和见解来源之一,其数据和分析结论经过了严格的审查和验证。

影响广泛

《斯坦福 2024 AI 指数报告》在全球范围内具有极高的影响力,被《纽约时报》、《彭博社》和《卫报》等多家重量级媒体广泛引用。同时,它也是美国、英国和欧盟等多国政策制定者的重要参考资料。

昨天更新

昨天更新的,是迄今为止最全面的版本,它扩大了研究范围,更广泛地覆盖了 AI 技术进步、公众对技术的看法及 AI 发展的地缘政治动态等关键趋势。报告还新增了关于 AI 训练成本的估算、负责任 AI 的详尽分析以及 AI 对科学和医学影响的全新章节。

大聪明推荐

本大聪明肝了一天,梳理了整份报告的内容,尽在本篇文章。

在这里,你可以快速查看这份 500 页报告各章节的主要内容和一些我写的洞察。同时,我也整理好了各个章节 PDF 的下载,如对某个特定章节感兴趣,可直接看原文。


另:本大聪明还复刻了这份报告的排版和配色,提供原汁原味的阅读体验😊


第 1 章

研究与开发动态


回复「斯坦福报告2024-1」,获得本章节PDF

本章深入分析了人工智能研究与开发的当前趋势。涉及 AI 出版物、专利、前沿 AI 研究、AI 会议以及开源 AI 软件项目等多个方面。整体展示了人工智能领域的快速扩展和深化,特别突出了行业与学术界的合作、开源模型的激增,以及 AI 模型开发成本的显著上升。

关键信息

1. 行业对前沿 AI 研究的持续主导

2023 年,工业界发布了 51 个显著的机器学习模型,而学术界只有 15 个。行业与学术界的合作模型也达到了 21 个,创历史新高。

2. 基础模型数量翻倍且开放性增强

2023 年发布了 149 个基础模型,比 2022 年多出一倍以上。这些新模型中有 65.7% 是开源的,而 2022 年和 2021 年的开源比例分别为 44.4% 和 33.3%。

3. 前沿模型的成本急剧上升

根据 AI Index 的估算,顶尖 AI 模型的训练成本已达到空前水平。例如,OpenAI 的 GPT-4 训练成本约为 7800 万美元,而 Google 的 Gemini Ultra 的成本高达 1.91 亿美元。

4. 美国在顶尖 AI 模型开发中领先全球

2023 年,来自美国的机构发布了 61 个显著 AI 模型,远超欧盟的 21 个和中国的 15 个。

5. AI 专利数量的显著增长

从 2021 年到 2022 年,全球 AI 专利授权数量激增了 62.7%。自 2010 年以来,授权的 AI 专利数量增加了超过 31 倍。

6. 中国在 AI 专利领域的主导地位

2022 年,中国的 AI 专利申请占全球比重为 61.1%,远超美国的 20.9%。自 2010 年起,美国在 AI 专利方面的占比已从 54.1% 下降。

7. 开源 AI 研究的爆炸性增长

自 2011 年以来,GitHub 上的 AI 相关项目数量持续增加,到 2023 年达到约 180 万个,同比增长了 59.3%。此外,这些项目在 GitHub 上的“星标”数量在 2023 年也翻了三倍多,从 2022 年的 400 万增加到了 1220 万。

8. AI 出版物数量持续增长

从 2010 年到 2022 年,AI 出版物的总数几乎增长了三倍,从大约 88000 篇增加到超过 240000 篇。过去一年的增长虽然较为缓慢,仅为 1.1%。

一些洞察

行业与学术界合作的加强

行业与学术界之间的合作达到新高,说明解决复杂 AI 问题需要多领域知识的合作。

成本与可持续性挑战

高昂的 AI 模型开发成本可能限制学术界和中小企业的参与,需要通过政策支持和创新成本管理策略来应对。

开源趋势的推动作用

开源基础模型的增多有助于推动 AI 技术的民主化和快速发展,使更多的研究人员和开发者能够受益。

专利和出版物的地域差异

中国在 AI 专利方面的领先显示了其在全球科技竞争中的战略地位,而美国则在高影响力模型的开发上保持领先。


       

第 2 章

技术性能


回复「斯坦福报告2024-2」,获得本章节PDF

2023 年的人工智能技术发展迅猛,各领域均有显著进展,包括语言处理、编程、图像与视频分析、推理、音频处理、自主代理、机器人技术和强化学习。本章不仅回顾了过去一年人工智能技术的重大突破,还探讨了如何通过提示、优化和微调等方法提升大型语言模型的性能,最后还涉及了人工智能系统的环境影响。

关键信息

1. 人工智能在某些任务上已超越人类

在图像分类、视觉推理和英语理解等方面,人工智能已超过人类水平。但在竞赛级数学、视觉常识推理和规划等复杂任务上,人工智能仍然落后。

2. 多模态人工智能的兴起

近年来,如 Google 的 Gemini 和 OpenAI 的 GPT-4 这样的多模态模型显示出处理图像和文本的灵活性,有的甚至可以处理音频。

3. 挑战性基准测试的出现

由于人工智能模型在现有的基准测试如 ImageNet、SQuAD 和 SuperGLUE 上达到性能饱和,研究人员开发出了更具挑战性的新基准测试。

4. 数据改进带来技术提升

新的人工智能模型被用来生成专门的数据,以提高图像分割和 3D 重建等任务的性能。

5. 人类评价的重要性

随着生成模型能够产生高质量的文本和图像,基准测试逐渐转向结合人类评价。

6. 语言模型与机器人技术的结合

语言模型与机器人技术的结合诞生了更为灵活的机器人系统,这些系统不仅改善了机器人的能力,还能进行提问。

7. 自主代理人工智能的技术研究

创建能在特定环境中自主操作的人工智能代理一直是计算机科学家的挑战,但最新研究表明这些代理的性能正在改善。

8. 封闭大型语言模型优于开放模型

在选定的 10 个人工智能基准测试中,封闭模型的表现优于开放模型,这一差异对人工智能政策辩论具有重要意义。

一些洞察

多模态能力的提升

突显了人工智能跨模态处理能力的提升,强调了未来系统设计中多模态集成的重要性。

对更高难度任务的适应

人工智能的发展面临更高难度任务的挑战,这推动了新基准测试的开发,以更全面地评估 AI 系统的性能。

数据生成的作用

通过使用人工智能生成更多专门的数据,为算法未来的改进铺平了道路,这反映了在机器学习中数据重要性的持续增长。

人类评价的融合

结合人类评价的基准测试的增多,表明了公众对人工智能的感受在追踪人工智能进展中变得越来越重要。


       

第 3 章

负责任的人工智能


回复「斯坦福报告2024-3」,获得本章节PDF

第三章聚焦于负责任的人工智能实践。探讨了隐私和数据治理、透明度和可解释性、安全与安全性、公平性等关键领域,并特别强调了人工智能与选举的交叉影响。

关键信息

1. 缺乏标准化的负责任 AI 评估

研究表明,负责任 AI 的报告标准化程度不足,如 OpenAI、Google 和 Anthropic 等领先开发者在使用不同的负责任 AI 基准测试其模型,这使得系统性比较顶尖 AI 模型的风险和局限性变得复杂。

2. 政治深度伪造技术的检测困难

政治深度伪造内容的生成和检测变得越来越困难,这类内容已在全球范围内影响选举,现有的 AI 深度伪造检测方法准确性参差不齐。

3. LLM 的复杂漏洞

研究人员发现了更复杂的策略来诱使大型语言模型展示有害行为,例如让模型无限重复随机单词。

4. 全球企业对 AI 风险的关注

一项全球负责任 AI 的调查显示,隐私、安全和可靠性是企业最关心的 AI 相关问题,但到目前为止,大多数公司只解决了部分风险。

5. LLM 可能输出侵权材料

研究表明,流行的大型语言模型的生成输出可能包含受版权保护的材料,如《纽约时报》的摘录或电影场景,这是否构成版权侵犯正成为一个中心法律问题。

6. AI 开发者在透明度上得分低

新引入的基础模型透明度指数显示,AI 开发者在透明度上表现不佳,特别是在培训数据和方法论的披露方面,这种缺乏开放性阻碍了对 AI 系统的稳健性和安全性的进一步理解。

一些洞察

提升数据治理和透明度

随着数据治理和模型透明度的重要性日益凸显,企业和研究机构需要加强在这些领域的实践,以建立公众的信任。

对抗性测试和安全性提升

面对 AI 模型潜在的安全风险,开发对抗性测试和提升模型安全性的策略变得至关重要。

版权问题与法律责任

随着 AI 模型可能输出版权材料,如何处理这些法律问题需要行业内外的广泛讨论和合作。

加强基础设施和政策建设

为了应对由 AI 带来的复杂问题,包括政治深度伪造的影响,需要加强相关基础设施和政策的建设,以确保技术的健康发展。


       

第 4 章

经济影响


回复「斯坦福报告2024-4」,获得本章节PDF

第四章深入探讨了人工智能技术对全球经济的影响。本章从劳动力需求、招聘趋势、技能渗透、人才可用性等方面分析了 AI 相关的职业,进一步探讨了企业在 AI,特别是生成型 AI 上的投资动态,以及公司如何采用这些技术。此外,本章还评估了 AI 当前及预计的经济影响,并对各行各业的机器人安装情况进行了研究。

关键信息

1. 生成型 AI 投资激增

尽管整体私人 AI 投资下降,生成型 AI 的投资却激增,从 2022 年的约 3.15 亿美元增加到 2023 年的 252 亿美元。

2. 美国在 AI 私人投资方面进一步领先

2023 年,美国的 AI 投资额高达 672 亿美元,是中国的近 8.7 倍。与此同时,中国和欧盟(包括英国)的私人 AI 投资分别下降了 44.2% 和 14.1%。

3. 美国和全球的 AI 职位减少

在美国,2023 年 AI 相关职位占所有职位发布的比例从 2.0% 下降到了 1.6%,这一下降主要是由于领先的 AI 公司发布的职位减少以及技术岗位的比例降低。

4. AI 降低成本并增加收入

42% 的受访组织报告实施 AI 后成本降低,59% 报告收入增加。与去年相比,报告成本降低的比例增加了 10 个百分点,表明 AI 正在推动显著的业务效率提升。

5. 新资助的 AI 公司数量增加

尽管全球私人 AI 投资连续第二年下降,新资助的 AI 公司数量却增加了 40.6%。

6. 企业采用 AI 的比例提高

2023 年,有 55% 的组织在至少一个业务单元或功能中使用 AI,较 2022 年的 50% 有所增加。

7. 中国在工业机器人安装中占主导地位

自 2013 年超过日本成为最大的工业机器人安装国以来,中国的市场份额显著提高,到 2022 年已占全球总安装量的 52.4%。

一些洞察

AI 技术对经济的深远影响

AI 正在重新塑造全球经济格局,尤其是在提升生产力和改变劳动力市场方面。

投资动向的重要变化

虽然总体投资减少,但生成型 AI 领域的快速增长表明,投资者对这一细分市场的重视日益增加。

企业对 AI 的广泛采用

越来越多的企业开始实施 AI 技术,以提高效率和增加收益,特别是在高科技和制造业领域。

AI 技术的风险与机遇

随着 AI 技术的广泛应用,如何平衡其带来的经济效益与潜在的社会风险,成为了一个关键话题。


       

第 5 章

科学与医学


回复「斯坦福报告2024-5」,获得本章节PDF

第五章是关于人工智能在科学和医学领域应用的新增章节,以表彰 AI 在科学发现和医学创新中的日益增长的作用。这一章节详细介绍了 2023 年在 AI 辅助下取得的显著科学成就,包括先进的天气预报系统(如 GraphCast)和改进的材料发现算法(如 GNoME)。此外,还探讨了医学 AI 系统的性能,2023 年的重要医疗创新(如 SynthSR 和 ImmunoSEIRA),以及 FDA 对 AI 相关医疗设备审批的趋势。

关键信息

1. 科学进展的加速

AI 的应用显著加速了科学发现,包括 AlphaDev 在算法排序的效率提升和 GNoME 在材料发现过程中的应用。

2. 医学领域的显著进步

2023 年推出了几个重要的医疗系统,包括 EVEscape 增强疫情预测和 AlphaMissence 协助 AI 驱动的变异分类。

3. 医学 AI 的显著知识提升

过去几年中,AI 系统在 MedQA 基准测试上表现出显著改进,2023 年的杰出模型 GPT-4 Medprompt 达到了 90.2% 的准确率,较 2022 年最高分提高了 22.6 个百分点。

4. FDA 批准的 AI 相关医疗设备数量增加

2022 年,FDA 批准了 139 个 AI 相关医疗设备,比 2021 年增长了 12.1%。自 2012 年以来,FDA 批准的 AI 相关医疗设备数量增加了超过 45 倍。

一些洞察

AI 在推动科学研究方面的潜力

AI 在加速科学发现方面显示出巨大潜力,尤其是在算法优化和新材料发现等领域。

AI 在医学创新中的应用

AI 在医学领域的应用越来越广泛,不仅提高了疫情预测的准确性,还帮助分类遗传变异,推动医疗行业前进。

医学 AI 的评估和标准

随着医学 AI 在实际医疗中的应用增加,确保这些技术的安全性和有效性至关重要,FDA 对 AI 医疗设备的审批标准和过程亦是关键环节。

AI 技术在实际医疗中的实用性增强

AI 在真实世界的医疗应用中显示出显著的成效,例如在疾病诊断和治疗方面的应用,这标志着 AI 技术从理论到实践的重要转变。


       

第 6 章

教育


回复「斯坦福报告2024-6」,获得本章节PDF

第六章专注于探讨人工智能和计算机科学(CS)教育的趋势,从学习者的背景、学习地点到这些趋势随时间的演变等方面进行了深入分析。本章从北美的高等教育入手,细致审视了美国和加拿大的计算机科学和人工智能相关教育现状,进而扩展到欧洲的教育数据分析,并涵盖了 K-12 教育层面的情况。特别关注了像 ChatGPT 这样的新 AI 工具在教育中的使用情况。

关键信息

1. 北美 CS 本科和研究生毕业生的趋势

美国和加拿大的 CS 本科毕业生数量持续上升,研究生毕业生数量相对平稳,而博士毕业生数量近年略有下降。

2. AI 博士向产业界的转移

越来越多的 AI 博士毕业生选择加入产业界,近年来这一比例显著上升,而选择学术界的比例则明显下降。

3. 北美的 CS 教育国际化趋势减弱

在北美,来自国际的 CS 本科和研究生的比例有所下降,尤其是硕士阶段。

4. 欧洲的 CS 教育概况

在欧洲,英国和德国在 CS 和相关领域的本科及研究生教育中领先。

5. K-12 级别的 CS 教育扩展

越来越多的州要求高中提供 CS 基础课程,尽管如此,学校的地理位置和规模仍是影响教育可及性的重要因素。

6. 全球范围内 AI 相关学位课程的增加

自 2017 年以来,英语授课的 AI 相关高等教育课程数量已经增加了三倍,显示出全球对 AI 教育需求的稳定增长。

7. ChatGPT 在教育中的应用

大量教师和学生已经在使用 ChatGPT,用于课程规划、创造性课堂想法生成和提升背景知识等。

一些洞察

教育向产业的人才流动

随着越来越多的 AI 博士毕业生选择加入产业界,这可能对大学的研究和教学造成影响,加剧了从学术界到产业界的人才流失。

国际学生比例下降

国际学生数量的减少可能会影响北美高等教育机构的多样性和文化交流,这对全球化教育环境构成挑战。

AI 教育的全球化和普及化

随着全球对 AI 教育的需求增加,更多的教育机构开始提供相关课程,这表明 AI 教育正逐渐成为高等教育的重要组成部分。

技术在教育中的应用

像 ChatGPT 这样的 AI 工具在教育领域的应用展示了技术对教学方法和学习体验的潜在影响,这需要教育者、政策制定者和技术开发者共同考虑如何有效整合这些工具,以增强教育质量而非简单替代传统教学。


       

第 7 章

政策与治理


回复「斯坦福报告2024-7」,获得本章节PDF

第七章重点讨论了 2023 年全球及特别是美国和欧盟在人工智能政策和治理方面的进展。本章从全球和美国的 AI 立法情况切入,探讨了立法中 AI 的提及情况,并分析了各国如何看待和讨论 AI。接着,章节详述了美国和欧盟的 AI 监管努力,并最终聚焦于美国在 AI 公共投资方面的策略。

关键信息

1. 美国 AI 相关法规数量急剧增加

2023 年美国 AI 相关法规从 2016 年的 1 项增至 25 项。

2. 美欧在 AI 政策行动上取得重大进展

2023 年欧盟达成 AI 法案的条款协议,而美国总统签署了 AI 相关的行政命令,这成为该年美国最重要的 AI 政策动作。

3. AI 成为美国政策制定者的焦点

2023 年美国联邦层面的 AI 相关立法提案比 2022 年翻了一番多,达到 181 项。

4. 全球范围内 AI 讨论几乎翻倍

2023 年全球 49 个国家的立法程序中 AI 的提及次数从 2022 年的 1247 次增加到 2175 次。

5. 更多监管机构参与 AI 法规制定

2023 年参与制定 AI 法规的美国监管机构从 17 个增加到 21 个,新参与的包括交通部、能源部和职业安全卫生管理局。

一些洞察

法规增长反映监管需求

AI 相关法规的激增反映出政策制定者对于监管 AI 的迫切需求,以及利用 AI 转型潜力的日益重视。

国家 AI 战略的全球化

随着更多国家制定或更新国家 AI 战略,全球对 AI 政策和规划的共识明显增强。

监管框架的演进

在 AI 快速发展的背景下,美国和欧盟等地区在制定和实施 AI 监管方面进行了积极的探索和实践。

公共投资的重要性

美国在 AI 研发上的公共投资凸显了政府在推动国家技术进步中的积极角色。

国际协调与合作的必要性

AI 技术的全球扩散要求国际间在监管和政策制定上进行更多的协调和合作,以确保全球范围内的统一行动。


       

第 8 章

多样性


回复「斯坦福报告2024-8」,获得本章节PDF

第八章全面探讨了人工智能领域的多样性问题。从北美的高等教育到欧洲,再到 K-12 教育阶段,章节深入分析了在性别、种族和残疾状态等方面的多样性数据。特别提到了在 NeurIPS 会议上举办的 WiML(Women in Machine Learning)研讨会,以及美国中小学阶段的计算机科学教育的多样性趋势。

关键信息

1. 北美高等教育中的多样性变化

美国和加拿大的计算机科学本科、硕士及博士毕业生的种族多样性持续增长。尽管白人学生仍然占多数,其他种族群体的比例也在逐渐上升。

2. 欧洲的性别差距

尽管在过去十年中性别差距有所缩小,但欧洲的信息学和计算机科学学位课程中,男性学生仍然占多数。

3. WiML 研讨会的参与多样性

WiML 研讨会显示了女性参与者的高比例,虽然总体参与人数有所下降,但女性的参与比例仍然很高。

4. 美国 K-12 教育的性别和种族多样性

越来越多的女性和少数族裔学生参加 AP 计算机科学考试,显示出教育领域的多样性逐渐增加。

5. 残疾学生的参与

数据显示美国和加拿大的计算机科学、计算机工程及信息技术领域的残疾学生参与情况。

一些洞察

高等教育中的性别和种族多样性

在高等教育阶段,尤其是 STEM 领域,性别和种族多样性的增加有助于推动更广泛的社会包容性和创新。

行业会议对多样性的影响

专业会议如 WiML 对于增强女性在 AI 和机器学习领域的影响力至关重要,有助于打破传统的性别隔阂。

早期教育的多样性努力

在 K-12 教育阶段加强对多样性的关注,可以为未来创造一个更加多元和包容的技术行业基础。

残疾学生的包容性

提升对残疾学生的包容性和提供相应的支持措施,是教育公平性的重要方面,有助于确保所有学生都能平等参与学习和成长。

政策和倡议对改善多样性的推动

持续的政策支持和教育倡议是改善教育和职业领域中多样性不足的关键。


       

第 9 章

公众观点


回复「斯坦福报告2024-9」,获得本章节PDF

随着人工智能技术的日益普及,理解公众对于这一技术的看法显得尤为重要。第九章通过全球范围内的调查数据,深入探讨了公众对于 AI 的态度,包括对 AI 产品和服务的感知、AI 对就业的影响、以及对 ChatGPT 等特定技术的态度。此外,本章还分析了社交媒体上对于 AI 的讨论,以及不同国家和人群之间在 AI 观点上的差异。

关键信息

1. 全球公众对 AI 的紧张感增加

Ipsos 的调查显示,认为 AI 在未来几年将极大影响他们生活的人比例从 60% 上升到 66%,表达对 AI 产品和服务紧张的比例也从 39% 增加到 52%。

2. 对 AI 经济影响的悲观看法

只有 37% 的受访者认为 AI 将改善他们的工作状况,34% 的人预计 AI 将促进经济增长,32% 的人认为 AI 将改善就业市场。

3. ChatGPT 的广泛认知和使用

多伦多大学的一项国际调查表明,63% 的受访者了解 ChatGPT,其中大约一半的人每周至少使用一次 ChatGPT。

4. 社交媒体上的 AI 模型讨论

使用 Quid 数据分析了 Twitter 上对重要 AI 模型的提及情况,反映出公众对不同 AI 模型的态度和情感。

一些洞察

公众情绪的变化

随着对 AI 潜在影响的认识加深,公众对 AI 技术的担忧也在增加,这需要政策制定者和企业采取措施增强公众信任。

年龄和收入对 AI 观点的影响

年轻一代和收入较高、教育水平较高的人群对 AI 的积极影响持更加乐观的态度,这表明 AI 的受益感知与社会经济状态和教育背景有关。

技术接受度的地域差异

不同国家和地区对 AI 的接受度和看法存在显著差异,这可能与经济发展水平、文化因素和教育背景有关。

社交媒体作为情绪的晴雨表

社交媒体上关于 AI 的讨论反映了公众对不同 AI 应用和技术更新的迅速反应,是感知公众观点的重要渠道。

原文地址:点击