生成性人工智能在2023年备受瞩目,预计在2024年仍将继续影响网络安全领域。CrowdStrike、Intel471、LastPass和Zscaler的思想领袖们预测,未来一年这一技术将在工作场所、安全攻击面以及数据安全方面发挥出意想不到的作用。
随着2024年的到来,虽然网络钓鱼和勒索软件威胁依然存在,但公司在管理大规模语言模型(LLM)数据池时面临的挑战也在加剧。美国总统选举的临近,以及网络安全行业技能缺口的持续存在,令信息安全专业人士担忧。
"对AI生产力提升的追求导致很多团队在安全上走了捷径。开源AI/ML项目的流行程度与其安全性成反比。尽管如此,AI将帮助组织识别和应对安全问题变得更加高效。未来几年,AI会不断改进,帮助提供更复杂场景下的指导,但必须把AI/ML作为信号,而不是决策者。"
"虽然目前还没有找到适合网络犯罪者的杀手级应用,但AI在一些繁琐的后台工作中仍然可能发挥作用。网络犯罪作为服务的兴起使得威胁行为者之间的合作更加专业化和高效。例如,利用LLM处理大量的被盗数据,以确定在敲诈公司时需要提及的重要信息。"
一些假设的创新可能包括一种AI工具,用于计算企业对被盗数据的最高赎金。在2023年第二季度,我们报道了几个参与者在提供的服务中应用AI的例子,包括一个初始访问经纪人(IAB)提供的免费的翻译服务。此外,部分威胁行为者有提供似乎能绕过ChatGPT限制的工具。随着AI和ML技术的快速发展,网络安全领域面临的新挑战也在不断增加。
"2024年,威胁行为者将把注意力转向AI系统,因其有可能成为针对组织的新威胁形式。过去一年中,虽然AI的应用大幅增长,但安全团队仍在探索如何追踪员工使用未经批准的AI工具所带来的安全隐患。"
企业必须在2024年里识别和评估在组织内部未经批准的AI工具的使用情况,制定相应的指导方针以确保安全和可审核性。
"企业已经多年来在利用AI/ML提升安全技术的效能,而生成性AI的引入将专注于最大化人类在安全领域的作用。这将使得较少经验的团队成员能够承担更具挑战性和高水平的任务。"
"网络钓鱼和恶意软件依然是启动欺诈和数据盗窃的主要网络威胁。借助新兴的生成性AI工具如FraudGPT,网络犯罪者将有更多的机会快速实施复杂的网络钓鱼活动。"
"2024年,我们预计生成性AI的使用将激增,网络犯罪者将能够以更高的隐蔽性进行网络攻击,导致终端设备的更大损失。"
Leave a Reply