七种负责任地开发和部署人工智能的方法

案例中心

1

在人工智能时代,信任与透明性至关重要

关键要点

信任与透明性:人工智能的成功离不开信任和透明,企业需尽快采取措施。风险评估:大多数组织尚未进行定期的人工智能风险评估及审计。全球监管:各国政府积极出台政策,以应对人工智能带来的潜在风险。最佳实践框架:确保合规性与创新的框架能够帮助组织下步行动。

随着人工智能AI威胁日益增加,安全领导者面临来自两个方面的压力:一方面需要保护组织免受外部攻击,另一方面需要确保内部对AI技术的负责任使用。信任和透明性对长期商业成功已不再是可选项,而是至关重要的。

根据我们最近的研究,安全领导者表示,AI恶意软件攻击和AI身份欺诈的发生率显著上升。然而,仅有五成的受访组织目前定期进行AI风险评估和审计,且仅36的组织制定了公司AI政策。

“SC Media观点专栏由SC Media网络安全领域的社区专家撰写。”在此阅读更多观点

这种缺乏前瞻性措施的状况在认识与行动之间形成了显著的差距,使组织在越来越依赖AI的情况下变得脆弱。因此,关于隐私与透明性的讨论已变得更加紧迫不仅关乎安全性,还涉及到与客户和合作伙伴建立信任的基础。那些在AI系统中优先考虑透明度与责任的公司,将在竞争中占据更好的位置。

根据Gartner的报告,到2026年,那些在AI透明度、信任和安全性方面进行有效运营的组织,其AI模型的采用率、商业目标与用户接受度将提高50。同样,麻省理工学院斯隆管理评论的研究也发现,AI透明度得分较高的组织在客户满意度方面超出了同行32。

全球政府应对AI威胁

AI的快速发展引发全球范围内前所未有的响应,各国政府和监管机构意识到其实际及紧迫风险。

在美国,拜登政府于2023年10月出台了重要的行政命令14110,标志着AI治理方面的一个转折点,强制要求进行全面的风险评估,并为联邦机构的负责任AI部署设定雄心勃勃的目标。

诸如国家标准与技术研究院NIST等联邦机构已推出AI风险管理指南,以帮助组织应对与AI相关的威胁。同时,开放全球应用安全项目OWASP创建了框架,以教育行业有关部署和管理大型语言模型LLMs带来的安全风险。

欧盟则以人工智能法案为先锋,推动立法生效。这一法案适用于所有27个成员国,通过根据AI系统的风险等级进行分类,开创了全新的监管模式。

这一协调的全球响应突显了组织采用负责任AI行动和遵守不断演变的法规的紧迫性。各国政府传达的信息十分明确:AI的开发与部署必须优先考虑安全性、透明度和伦理考量,以发挥其全部潜力,同时减少风险。

合规性与创新的框架

在AI不断演进的背景下,企业必须调整其策略以保持合规性,并与利益相关者建立信任。遵循一套最佳实践的清晰框架,组织可以满足监管标准,同时促进创新和商业价值。以下是组织可以

e站专属加速器

七种负责任地开发和部署人工智能的方法

Paladin Cloud推出全新开源平台关键要点Paladin Cloud在周一宣布了新开源平台的上线,并获得330万美元种子资金。该平台旨在帮助开发运维(DevOps)团队保护其应用和数据。通过自动化安全政策违反的检测与修复,提升多云环境的安全性。Paladin Cloud于周一宣布他们的开源“...

俄罗斯黑客组织针对全球数千个机构发起网络攻击关键要点俄罗斯支持的黑客组织“午夜暴风雪”APT29自10月22日起在全球范围内开展网络钓鱼活动,目标是超过100个政府、国防、学术和非政府机构。攻击者通过伪装成微软员工或利用与微软和亚马逊Web服务相关的社交工程手段发送恶意邮件。恶意邮件附件包含远程桌面...