为了倡导安全地使用人工智能技术,卡巴斯基签署了欧盟委员会发起的AI公约(AI Pact),该倡议旨在为组织实施《人工智能法案》做好准备——这是全球首个由欧盟(EU)通过的全面人工智能法律框架。这一公约的签署反映了卡巴斯基更广泛的承诺,即促进和推动AI技术的谨慎和负责任使用,同时也体现了这一立场在网络安全领域的重要性。
欧盟《人工智能法案》旨在通过确保人工智能技术符合安全和道德原则并解决人工智能相关风险,鼓励欧洲地区及其他地区发展可信赖的人工智能技术。该法案于2024年颁布,预计将于2026年年中全面生效[1]。人工智能公约旨在通过邀请组织积极实施《人工智能法案》的关键条款,促进向新法规的过渡。
通过签署这一承诺,卡巴斯基承担了与人工智能技术使用相关的三个核心承诺,即:
- 采用人工智能治理战略,以促进公司内人工智能的应用,并努力实现未来对《人工智能法案》的合规;
- 对根据《人工智能法案》被视为高风险的领域所提供或部署的人工智能系统进行摸底调查;
- 提高公司员工及其他代表公司处理人工智能系统的人员的意识和人工智能素养,同时考虑他们的技术知识、经验、教育和培训背景以及AI系统的使用环境。
除了核心义务外,卡巴斯基还承诺对可能因使用AI系统而受到影响的人员权利的可预见风险进行分析,确保在与AI系统直接交互时告知个人,并向员工通报工作场所部署AI系统的情况。
“在我们见证人工智能技术快速部署的同时,确保创新驱动与适当的风险管理之间的平衡至关重要,”卡巴斯基创始人兼首席执行官尤金·卡巴斯基评论说:“多年来,我们一直是AI素养和分享AI相关风险与威胁知识的倡导者,很高兴加入致力于帮助企业负责任且安全地从AI技术中受益的组织行列。我们将努力进一步推进透明和道德的AI实践,并为建立对这一技术的信心做出贡献。”
卡巴斯基在其保护技术中采用人工智能技术方面拥有丰富的经验。近20年来,公司利用AI驱动的自动化技术来增强客户的安全和隐私,并检测最广泛的网络威胁。随着AI系统日益普及,卡巴斯基致力于分享其AI技术研究中心积累的专业知识,以确保组织能够有效应对AI系统部署带来的风险。
为了帮助从业者实施AI系统,并为他们提供有关如何安全部署AI的具体建议,卡巴斯基专家制定了《AI系统安全开发和部署指南》,该指南在2024年联合国互联网治理论坛上发布。除了安全考虑外,卡巴斯基还强调AI技术的道德使用,并制定了网络安全中AI系统道德使用原则,邀请其他网络安全提供商加入并遵循这些原则。
关于卡巴斯基人工智能技术研究中心
卡巴斯基人工智能技术研究中心的专家们在网络安全和安全人工智能领域已研究近20年,致力于发现和应对范围最广的威胁。我们的团队在研究的基础上贡献人工智能专业知识,以增强我们的解决方案,从人工智能驱动的威胁检测和警报分流到生成式人工智能驱动的威胁情报。
[1] 除条例规定的某些例外情况外:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689