人工智能和自动化_人工智能_收集平安
正如我们所看到的,在重新定义安全场景时,这些技能具有巨大的代价和不断增长的潜力,但我们不能忽略也存在许多寻衅。说实话,每一项新技能都会为漏洞利用带来新的机会,除非得到办理,否则将危害其寻求改进的安全性。让我们来磋商一下 AI 和自动化技能如何帮助和危害运用程序安全性。
增强的威胁检测AI 已经从基本的非常检测发展到主动威胁相应和持续监控。由于网络安全团队常日须要事半功倍,再加上须要更高的资源效率,因此 AI 威胁检测对付应对组织面临的日益繁芜和繁芜的网络威胁至关主要。
人工智能驱动的工具供应实时攻击检测并保持持续不雅观察,这在威胁可能溘然和意外涌现时至关主要。它们的自适应学习使人工智能技能能够更快地识别模式,并采纳主动行动来避免或降级潜在的威胁和攻击。此外,从过去的事宜中吸取教训并适应新的威胁,使系统能够更好地抵御攻击,通过高等剖析功能改进对安全漏洞或漏洞的检测。同样,向自动相应的转变也是对更有效资源管理需求的回应。
如表 1 所示,我们能够不雅观察到 AI 检测的紧张发展及其结果:
威胁检测的演化
年
AI 威胁检测的紧张发展
紧张寻衅和进展
1950年代
Al的早期观点化
威胁检测运用受到限定;艾尔紧张专注于符号推理和基本问题办理
1980年代
针对特定威胁类型引入了基于规则的系统和基本专家系统
受限于规则创建的繁芜性和无法适应不断变革的威胁
1990年代
机器学习 (ML) 算法越来越受欢迎,并被运用于基于署名的威胁检测
支持向量机、决策树和早期神经网络用于署名匹配;对新的未知威胁的有效性有限
2000年代
引入利用非常检测算法的基于行为的检测
根据与正常行为的偏差,改进了对以前未知威胁的检测;区分合法非常和实际威胁的寻衅
2010年代
深度学习的兴起,特殊是用于基于图像的威胁检测的卷积神经网络;改进了 ML 在行为剖析中的利用
提高基于图像的威胁检测的准确性;越来越多地采取监督学习进行恶意软件分类
2020年代
深度学习、强化学习和自然措辞处理的持续进步;将 Al 集成到下一代防病毒办理方案中;增加威胁情报和协作式 Al 系统的利用
人们越来越关注可阐明的 Al、用于办理安全漏洞的对抗性 ML,以及在编排威胁相应中利用 Al
表1
提高效率和准确性自动化为安全团队处理和管理网络威胁的办法带来了重大变革,从传统的被动非常检测转变为当代主动自动化相应。事宜相应自动化影响了威胁的管理办法。它不仅加快了相应过程,还确保了同等且全面的威胁管理方法。该领域的一个显著进步是人工智能系统能够实行自动化操作,例如隔离受传染的设备以防止威胁传播,以及实行针对特定类型的攻击量身定制的繁芜的人工智能驱动相应。
它还使安全团队能够更具计策性地分配资源,专注于更高等别的任务和策略,而不是常规的威胁监控和相应。通过从被动检测转向主动、自动化操作,人工智能使安全团队能够更快速、更有效地相应威胁,确保网络安全事情尽可能高效和有影响力。
减少人为缺点人工智能的利用是减少人为缺点和提高整体有效安全性的主要一步。AI 的功能(包括最大限度地减少误报、确定警报优先级、加强访问掌握和缓解内部威胁)共同创建了一个更可靠、更高效的安全框架。
图 1:利用 AI 办理人为缺点
过度依赖自动化将人工智能和自动化整合到各种业务流程中可以缓解安全需求,同时扩大潜在的攻击面,从而导致严重问题。这种情形须要开拓专门为人工智能量身定制的强大安全协议,以防止其成为安全框架中的薄弱环节。
随着人工智能变得越来越普遍,网络攻击者正在适应并更深入地理解人工智能系统。这种专业知识使他们能够利用人工智能算法和模型的弱点。因此,网络安全策略必须不断发展,以抵御传统威胁和针对人工智能漏洞的繁芜威胁。每个 AI 系统、接口和数据点都代表一个可能的目标,须要一种强大的网络安全方法,涵盖组织内 AI 和自动化的所有方面。
这种不断变革的环境须要不断识别和缓解紧急风险,这意味着必须定期评估和调度安全策略,以办理新漏洞的动态过程。这种不断变革的网络安全寻衅凸显了在戒备人工智能和自动化干系威胁方面保持当心温柔应性的主要性。
可利用的 AI 偏见确保人工智能系统的完全性和有效性涉及办理其演习数据和算法中存在的偏见,这可能导致结果偏差并可能危及安全方法。改进这些算法的努力正在进行中,重点是利用不同的数据集并履行检讨,以确保公正和公道的人工智能决策。
如表 2 所示,在 AI 安全功能与道德和隐私意识利用需求之间取得平衡是一项重大且持续的寻衅。它须要一种全面的方法,包括人工智能履行的技能、法律和道德方面。
人工智能偏见和解决方案
人工智能中的常见偏见
减轻偏见的策略
演习数据偏差
利用多样化且具有代表性的数据集履行检讨以确保公正性算法偏差
定期优化算法以减少偏差对铝系统进行审计和审查隐私问题
采取加密和严格的访问掌握定期审核 Al 系统的隐私合规性道德考量
在人工智能运营中制订并遵照道德准则确保尊重隐私、不歧视和透明度总体缓解方法
采取涵盖技能、法律和道德方面的综合方法平衡 Al 功能与隐私保护表2
恶意利用的可能性人工智能和自动化不仅带来了进步,也带来了重大寻衅,特殊是在如何被恶意行为者利用方面。人工智能的自动化和学习能力可用于开拓更具适应性和弹性的恶意软件,对传统的网络安全防御构成寻衅。
图 2:人工智能和自动化的恶意利用以及各种寻衅
虽然人工智能旨在提高效率,但它引发了对此类自动化操作的可靠性和潜在意外后果的质疑,强调了将人工智能谨慎整合到网络安全计策中的必要性。
轻忽和安全监督人工智能和自动化的涌现不仅改变了安全性,也改变了监管。2023 年是人工智能技能监管的迁移转变点,这在很大程度上是由于它们越来越繁芜,无处不在。总体感情方向于采纳更严格的监管方法,以确保负任务、合乎道德和安全地利用人工智能,尤其是在网络安全方面。
NIST人工智能风险管理框架和人工智能问责法案等监管举措是这一安全寻衅的核心。这些旨在为 AI 开拓、支配和管理制订指南和标准。NIST框架为评估和减轻人工智能干系风险供应了一种构造化的方法,而《人工智能问责法案》则强调人工智能运营的透明度和问责制。
然而,人工智能和自动化的采取带来了重大的网络安全困难。履行 AI 运用程序的技能、社会和组织寻衅带来了更大的障碍,再加年夜将强大的 AI 算法集成到当前网络安全设计中的本钱不断增加。这些考虑成分为在不愿定的监管环境中运营的组织提出了艰巨的任务,即在领先的边缘安全保护方法的实际履行和合规性之间保持奇妙的平衡。
归根结底,这种平衡对付确保有效利用人工智能和自动化的上风,同时遵守监管标准并保持合乎道德和安全的人工智能实践至关主要。
结论人工智能和自动化技能的双重性子表明,它们供应了巨大的回报,但必须谨慎对待,以理解和最小化干系风险。很明显,虽然人工智能和自动化的利用通过增强的检测能力、更高的效率和自适应学习来增强运用程序的安全性,但它们也引入了可利用的偏见、对自动化系统的潜在过度依赖,以及对手的攻击面扩大。
随着这些技能的发展,对我们来说,采取前瞻性框架非常主要,该框架假定采纳积极和平衡的安全方法。这不仅须要利用人工智能和自动化的上风来提高运用程序安全性,还须要不断识别、评估和减轻它们带来的紧急风险。归根结底,我们必须保持当心,由于随着这些技能的发展,适应新风险的责任也在增加。
资源"Thune、Klobuchar 发布两党 AI 法案,“Rebecca Klar,The Hill人工智能 2023 年立法,NCSL人工智能风险管理框架 (AI RMF 1.0),NIST原文标题:AI and Automation
原文链接:https://dzone.com/articles/ai-and-automation
作者:Jihana Barrett
编译:LCR
本文系作者个人观点,不代表本站立场,转载请注明出处!