一半的人工智能开源项目引用了有bug的包
根据Endor Labs的数据,开源在人工智能技术堆栈中发挥着越来越大的作用,但大多数(52%)项目在其清单文件中引用了已知的易受攻击的依赖项。
这家安全供应商最新的依赖管理状态报告称,在发布后的短短五个月里,ChatGPT的API被用于900个npm和PyPI包中,涉及不同的问题领域,其中70%是全新的包。
然而,Endor Labs警告说,对于任何开源项目,必须管理与脆弱依赖项相关的安全风险。

Osterman Research首席分析师迈克尔•桑普森(Michael Sampson)表示:“看到最新一代的人工智能api和平台抓住了公众的想象力,这是一件美妙的事情,但这份来自Endor Labs的报告提供了生动的证据,证明安全并没有跟上步伐。”
更多地采用能够更快地识别和自动修复潜在弱点的技术,将在这一关键领域产生巨大影响。
不幸的是,组织似乎不仅低估了开源依赖中的AI api的风险,而且低估了一般的安全敏感api的风险。

报告称,超过一半(55%)的应用程序在其代码库中调用了安全敏感的api,但当包含依赖项时,这一比例上升到95%。
Endor Labs还警告说,像ChatGPT这样的大型语言模型(LLM)技术在评估可疑代码片段的恶意软件潜力方面表现不佳。它发现OpenAI GPT 3.5的准确率仅为3.4%,而Vertex AI text-bison的准确率略高,为7.9%。
报告指出:“这两种模型都产生了大量的误报,这将需要人工审查工作,并阻止自动通知到各自的包存储库以触发包删除。尽管如此,模式似乎确实在改进。这些发现说明了在安全敏感的用例中使用法学硕士的困难。它们当然可以帮助手动审查员,但即使评估准确率可以提高到95%甚至99%,也不足以实现自主决策。”

此外,该报告指出,开发人员可能会浪费时间修复代码中的漏洞,而这些漏洞甚至没有在他们的应用程序中使用。
它声称71%的典型Java应用程序代码来自开源组件,但应用程序只使用了12%的导入代码。
报告称:“未使用代码中的漏洞很少被利用,组织可以通过对整个应用程序中哪些代码可访问的可靠洞察来消除或取消高达60%的修复工作的优先级。”