人工智能如何改变科学研究的性子和方法?人工智能技能为科学研究带来了哪些机遇、限定和风险?利益干系方如何更好地支持人工智能在科学研究中的开拓和利用?2024年5月,英国皇家科学院(The Royal Society)发布了由牛津大学、剑桥大学等各大著名高校、Deepmind等人工智能企业的100余位专家联合撰写的的最新报告《人工智能时期的科学:人工智能如何改变科学研究的性子和方法》(Science in the age of AI:How artificial intelligence is changing the nature and method of scientific research),深度阐发了人工智能在科研领域的角色、潜力及面临的寻衅,进一步强调了在环球科学共同体中构建共识、协同应对人工智能时期科学变革的主要性。
元计策编译此报告,以期为读者磋商人工智能对科学研究的影响供应参考。

英国皇家科学院宣告:《人工智能时代的科学:人工智能若何改变科学研究的性质和方法》_人工智能_科学 AI简讯

一、择要

近年来,人工智能以前所未有的速率和规模发展,这表明社会可能正在经历一个拐点。
ChatGPT和Midjourney等平台可以天生类似人类的文本和图像内容,其传播进一步引发了"大众对这一领域的兴趣,也为那些担心人工智能技能如何融入更广泛社会的政策制订者敲响了警钟。
此外,著名打算机科学家和"大众年夜世人物就人工智能风险揭橥的评论,也将这一话题转变为主流问题。
对付科学研究职员来说,人工智能并不是一个新话题,几十年来一贯以某种形式被运用。
然而,学术界和家当界主导的研究加大了人工智能投资、兴趣和采取力度,引发了一场“深度学习革命”,正在改变科学创造的格局。

在大数据(例如,从望远镜、卫星和其他前辈传感器网络到的大量不同形式的数据)的推动下,基于人工智能的技能正在帮助识别大型数据集中的新模式和新关系,而这些模式和关系在其他情形下是很难识别的。
这为科学研究带来了巨大的潜力,并鼓励科学家采取更繁芜的技能,以超越其领域内的现有方法。
人工智能工具能够从现有内容中识别模式并对新内容进行预测,这也使科学家们能够进行更精确的仿照并创建合成数据。
这些仿照从大量不同来源(可能是实时)获取数据,可以帮助决策者更准确地评估潜在干预方法的效果,并应对社会或环境寻衅。

除了上述机遇之外,人工智能的日益遍及也带来了各种寻衅。
这些寻衅包括:可重复性(其他研究职员无法复制利用人工智能工具进行的实验);跨学科性(人工智能与非人工智能学科之间的互助有限,可能导致人工智能在各领域的运用不足严格);以及环境本钱(运行大型打算根本举动步伐须要花费大量能源)。
由于人工智能系统的黑箱性子,有效采取开放科学原则的障碍也越来越多。
此外,全体科学生态系统中不断变革的勉励机制可能会增加研究职员的压力,迫使他们采取前辈的人工智能技能,而忽略更传统的方法,或者“善于人工智能”而不是“善于科学”。

二、紧张结论

1.除了AlphaFold这样的标志性案例,人工智能的运用遍及所有STEM领域,紧张集中在医学、材料科学、机器人学、农业、遗传学和打算机科学等领域。
科学、技能、工程和数学领域最突出的人工智能技能包括人工神经网络、深度学习、自然措辞处理和图像识别。

2.高质量数据是人工智能运用的根本,但研究职员面临着与可用数据的数量、异质性、灵敏度和偏差有关的障碍。
一些科学数据(如从望远镜和卫星网络的数据)的总量可达PB级,这使得数据共享和互操作性等目标难以实现。
从传感器数据中网络的数据的异质性也带来了困难,而人工智能模型在有偏差的输入上进行演习很可能会导致有偏差的输出。
鉴于这些寻衅,信息管理职员等对付保持数据质量,以及应对与人工数据天生干系的风险(如数据假造、中毒或污染)至关主要。

3.家当界和学术机构正在推进用于科学研究的人工智能创新。
在过去十年中,与人工智能科学干系的专利申请激增,个中中国、美国、日本和韩国的专利申请数量占主导地位。
本报告委托进行的一项研究表明,环球人工智能市场的估值(截至2022年)约为1069.9亿英镑。

4.中国约占专利总量的62%。
在欧洲,英国与生命科学干系的人工智能专利所占比例仅次于德国,牛津大学、帝国理工学院和剑桥大学等学术机构在英国专利申请量最高的大学中霸占突出地位。
Alphabet、西门子、IBM和三星等公司彷佛在科学和工程领域展现出相称大的影响力。

5.人工智能工具的黑箱和潜在专有性子限定了基于人工智能的研究的可重复性。
文档不敷、对主要根本举动步伐(如代码、数据和打算能力)的访问受限以及对人工智能工具如何得出结论(可阐明性)缺少理解等障碍,使独立研究职员难以对实验进行仔细检讨、验证和复制。
采取开放科学原则和实践有助于应对这些寻衅,提高科学的完全性。

6.跨学科合为难刁难于弥合技能差距和提高人工智能在科学研究中的效益至关主要。
通过分享彼此领域的知识和技能,人工智能和领域专家(包括艺术、人文和社会科学研究职员)之间的互助有助于构建更有效、更准确的人工智能模型。
然而,各不相谋的研究环境和不褒奖跨学科互助的勉励构造阻碍了这种互助。

7.天生式人工智能工具可以帮助推进科学研究。
它们有望加快常规科学任务的完成,如处理非构造化数据、办理繁芜的编码难题或支持学术文章的多语种翻译。
此外,文本天生模型还可用于学术和非学术书面任务,对学术互换和研究评估具有潜在影响。
对此,帮助者和学术机构正在制订规范,以防止不可取的利用。

三、未来的研究问题

1.人工智能与科学打算根本举动步伐:考虑到不同科学领域的不同需求,如何优化人工智能事情负载,以便在科学研究中充分发挥异构打算根本举动步伐的潜力?

2.人工智能和小数据:越来越多地利用人工智能对研究职员有何影响?只有少量数据可用?如何有效利用人工智能技能来扩充用于演习目的的小型数据集?在运用于小数据场景时,如何在缩小模型规模和保持性能之间进行权衡?

3.人工智能与科学体系中的不平等:在为代表性不敷的群体供应公正获取人工智能技能的机会方面存在哪些障碍?如何利用人工智能扩大专家群体的参与,包括代表性不敷的学者和非科学家公众?

4.人工智能与知识产权:人工智能系统的哪些输入(数据集、算法或输出)对知识产权保护至关主要,它与开放科学原则在科学中的运用在哪些方面相互影响?

5.人工智能与科学技能的未来:随着人工智能的日益领悟,科学研究的技能哀求如何变革?未来研究职员必须具备哪些能力,须要做出哪些努力来促进不同科学学科对人工智能的理解?

6.人工智能与学术互换的未来:随着人工智能技能的融入,学术和科学传播的格局将如何演化?如何利用人工智能改进学术成果中的知识翻译、多措辞性和多模态性?

7.人工智能与环境可持续性:人工智能在促进科学界的可持续实践方面能发挥什么浸染?人工智能算法如何优化环境建模,以提高能效,并促进景象科学、生态学和环境监测等领域的可持续发展?

8.人工智能标准与科学研究:在基于人工智能的科学研究中,人工智能标准如何帮助应对可重复性或互操作性方面的寻衅?科学界如何为建立人工智能标准做出贡献?

四、建议

建议1:政府、研究帮助者和人工智能开拓者应优化对基本人工智能根本举动步伐的运用

得到打算资源对付重大科学打破至关主要,例如AlphaFold的蛋白质折叠。
只管如此,用于人工智能研究的打算能力和数据根本举动步伐在各研究社区的利用和分布并不屈衡。
来自不同学科的科学家须要得到根本举动步伐,以采取更繁芜的人工智能技能,处理更多数量和类型的数据,并确保人工智能研究的质量。

改进获取路子的建议包括机构资助获取超级打算和建立地区中央,更广泛的接入可以将人工智能的上风扩展到更多学科,提高非行业研究职员的竞争力,并通过实现大规模可重复性来促进更严谨的科学研究。
扩大打算的利用范围还必须借鉴环境可持续打算科学(ESCS)的最佳实践,包括对环境影响的丈量和报告。

优化人工智能根本举动步伐和工具运用的行动可能包括:

1. 拥有打算举动步伐的帮助者、行业互助伙伴和研究机构积极共享主要的人工智能根本举动步伐,如高性能打算能力和数据资源。

2.利益干系方(如政府机构、研究机构、行业和国际组织)确保跨部门和跨地区获取高质量数据集和可互操作的数据根本举动步伐。
这可能涉及通过隐私增强技能和可信的研究环境来促进敏感数据的获取。

3.环境或因打算需求的增加而受到影响,研究帮助者应支持干系计策,以监测和减轻干系环境影响,并推动履行人工智能运用中的能源比例原则。

建议2:研究帮助者和人工智能开拓者应优先考虑为科学研究开拓的人工智能工具的可访问性和可用性

得到人工智能并不能担保其得到故意义和负任务的运用。
对付非人工智能背景的研究职员来说,有效利用繁芜、高性能的人工智能工具和方法可能具有寻衅性。
同样,全体人工智能生命周期都须要新的技能能力,如理解元数据和数据整理主要性的数据科学家,或熟习基于图像处理的GPU编程的工程师。

因此,采纳方法提高基于人工智能的工具(如软件运用程序、库、运用程序接口或通用人工智能系统)的可用性,应结合各种机制,使非人工智能专家也能理解人工智能,并培养他们负任务运用人工智能的能力。
例如,培训应确保每位科学家都能认识到他们的团队何时须要专业数据或编程知识,或何时利用繁芜而不透明的人工智能技能会毁坏结果的完全性和质量。

提高可用性还可以加强非人工智能科学家作为共同设计者的浸染。
他们可以确保人工智能工具知足科学界的需求。
要为共同设计创造条件,就必须通过开拓共享措辞、模式和方法,肃清人工智能和领域专家之间的学科隔阂。

提高人工智能工具可用性的行动可包括:

1. 研究机构和培训中央:在各科学领域开设人工智能扫盲课程,培养研究职员的能力,使他们理解人工智能工具在其领域和研究环境中的机遇、局限性和适当性。

2.研究机构和培训中央针对人工智能在科学研究中运用的详细需求,开设全面的数据扫盲课程。
这涉及数据管理、整理和监管能力培植,以及数据原则的履行,如FAIR(可查找、可访问、可互操作和可重用)和CARE(集体利益、掌握权、任务和道德)。

3.研究帮助者和人工智能开拓者推动干系计策,以提高非人工智能专家对人工智能的理解和可用性,重点关注繁芜和不透明的模型。
这可能包括进一步研究特定领域的可阐明人工智能(XAI)或可访问的人工智能工具,以提高在资源有限的研究环境中的可访问性。

4.研究机构、研究帮助者和科学期刊履行促进跨领域知识转化,以及故意义的跨学科互助的机制。
这须要将跨学科培训、导师辅导、出版渠道和资金结合起来。

建议3:研究帮助者和科学界应确保基于人工智能的研究符合开放科学原则和实践,以促进人工智能在科学中的惠益。

越来越多不可再现的人工智能和机器学习(ML)研究正在引起人们对人工智能创造的合理性的担忧。
然而,科学家们在提高人工智能事情的可重复性方面正面临着寻衅。
这些寻衅包括:环绕方法、代码、数据或打算环境发布的文档不敷;验证繁芜机器学习模型的打算路子有限;以及对履行开放科学实践的褒奖有限。
如果支配不可靠或不可信的人工智能产出导致有害结果,这不仅会给科学带来风险,还会给社会带来风险。

为了应对这些寻衅,科学领域的人工智能可以遵照开放科学原则和实践。
例如,联合国教科文组织《开放科学建议书》为提高科学的严谨性供应了干系辅导,同时指出,在各部门和各地区实行开放性并没有放之四海而皆准的方法。
这与越来越多地采取“渐进式”开放模式的趋势不谋而合,即在公开模型和数据的同时,发布详细的辅导和可信风险的戒备方法。

开放科学原则还有助于更公正地获取人工智能的益处,并培养更多专家的能力,为人工智能在科学领域的运用做出贡献。
这包括代表性不敷、资源不敷的学者、数据所有者或非科学家"大众年夜众。

须要进一步开展事情,以理解开放科学与人工智能促进科学之间的相互浸染,以及如何最大限度地降落因公开拓布模型和数据而产生的安全风险。

促进在基于人工智能的科学中采取开放科学的行动可包括:

1.研究帮助者和研究机构勉励采取开放科学原则和实践,提高基于人工智能的研究的可重复性。
例如,为开放科学和人工智能培训分配资金,哀求在申请帮助时利用可重复性清单31和数据共享协议,或支持制订社区和特定领域的可重复性标准。

2.研究机构和期刊褒奖并认可开放科学实践职业发展机会。
例如,接管预注册和注册报告作为产出,或承认数据集和文件的发布是职业发展的干系出版物。

3.研究帮助者、研究机构和行业参与者通过投资于开放式科学根本举动步伐、工具和实践来鼓励国际互助。
例如,通过投资于开放式资料库,实现数据集、软件版本和事情流程的共享,或通过支持开拓高下文感知文档,实现人工智能模型在不同研究环境中确当地化。
后者还有助于支持代表性不敷的研究群体和在低资源环境中事情的科学家。

4.干系政策制订者考虑如何阻挡科学领域人工智能封闭生态系统的发展,例如,逼迫哀求负任务地发布行业主导的研究中利用的基准、演习数据和方法。

建议4:科学界应有效监管科学研究中运用的人工智能系统,并确保其运用符合公共利益的道德规范

在科学领域运用人工智能须要仔细考虑潜在的风险和滥用情形。
这可能包括数据偏差的影响、数据中毒、缺点信息的传播以及恶意利用人工智能模型。
除此之外,人工智能的资源密集性子也引发了伦理问题,即科学家利用的人工智能会在多大程度上无意中造成环境和社会危害。

人工智能风险的不愿定性加剧了伦理方面的担忧。
截至2023年底,有关人工智能安全的公开辩论尚未确定科学家在监测和降落各自领域风险方面的浸染。
此外,各领域专家的人工智能专业技能水平参差不齐,缺少进行伦理影响评估的标准化方法,这些都限定了科学家履行有效监管的能力。
其他成分包括商业模式的透明度有限、机器学习系统的不透明性,以及滥用开放科学实践会如何加剧安全风险。

随着人工智能进一步融入科学,须要建立人工智能保障机制,以掩护"大众年夜众对人工智能的信赖,确保负任务的科学进步造福人类。
人工智能专家、领域专家以及人文学科和科学、技能、工程、艺术和数学(STEAM)学科的研究职员之间的互助可以提高科学家监管人工智能系统和预测潜在危害的能力。

同样,与人工智能培训数据集中有代表或没有代表的社群打仗,可以提高对基于人工智能的研究项目潜在风险的认识。

支持在科学领域合乎伦理地运用人工智能的行动可包括:

1. 研究帮助者和研究机构投资于科学领域,特殊是敏感领域(如化学和生物研究)的人工智能风险可操作化和建立特定领域分类的事情。

2.研究帮助者、研究机构、行业参与者和干系科学界广泛接管现有的人工智能伦理框架,如联合国教科文组织《人工智能伦理建议书》或经合组织《人工智能伦理准则》所反响的内容,并履行将开放科学与戒备潜在风险相结合的做法。

3.研究帮助者、研究机构和培训中央供应人工智能伦理培训,培养科学家开展前瞻活动(如地平线扫描)、支配前测试(如红队)或人工智能模型伦理影响评估的能力,以确定与其领域干系的风险和戒备方法。

4.研究帮助者、研究机构和培训中央支持开拓跨学科和参与式的安全审计方法,确保人工智能和非人工智能科学家以及受影响社区参与评估人工智能在科学研究中的运用。

免责声明:本文转自元计策。
文章内容系原作者个人不雅观点,本公众年夜众号编译/转载仅为分享、传达不同不雅观点,如有任何异议,欢迎联系我们!

转自丨元计策

研究所简介

国际技能经济研究所(IITE)成立于1985年11月,是从属于***发展研究中央的非营利性研究机构,紧张职能是研究我国经济、科技社会发展中的重大政策性、计策性、前瞻性问题,跟踪和剖析天下科技、经济发展态势,为中心和有关部委供应决策咨询做事。
“环球技能舆图”为国际技能经济研究所官方微信账号,致力于向公众年夜众通报前沿技能资讯和科技创新洞见。

地址:北京市海淀区小南庄20号楼A座

电话:010-82635522

微信:iite_er