微软在其安全工具箱中增加了另一种由人工智能驱动的装备,今天宣布微软安全领航员(Security Copilot)处于内部预览阶段。旨在让安全专业人员”看到他们环境中正在发生的事情,从现有的情报中学习,关联威胁活动,并以机器的速度做出更明智、高效的决定”。
据微软描述,Security Copilot在Azure的超大规模架构上运行,它将OpenAI的GPT4提供的大语言模型与微软建立的安全特定模型相结合,以提供”企业级的安全和符合隐私的体验”。
当Security Copilot收到安全专业人员的提示时,它就会利用安全专用模型的全部力量来部署技能和查询,从而最大限度地发挥最新大型语言模型能力的价值。而这对于一个安全用例来说是独一无二的,新的网络训练模型增加了一个学习系统来创建和调整新的技能。然后,Security Copilot可以帮助捕捉其他方法可能错过的东西,并增强分析员的工作。在一个典型的事件中,这种提升可以转化为检测质量、响应速度和加强安全态势的能力方面的收益。
安全领航员并不总是能做对所有事情,AI生成的策略可能包含纰漏甚至错误。但Security Copilot是一个闭环学习系统,这意味着它在不断地向用户学习,并通过直接内置在工具中的反馈功能给他们提供明确的反馈。随着我们不断从这些互动中学习,我们正在调整它的反应,以创造更连贯、相关和有用的答案。
Security Copilot将与微软的安全产品整合,并随着时间的推移,将扩展到包括”一个不断增长的生态系统”的第三方产品。
你可以在Introducing Microsoft Security Copilot网站上了解更多关于Microsoft Security Copilot的信息并观看演示:
© 版权声明
本站所有文章,仅代表文章作者个人观点,如对观点有疑义时不用怀疑,您绝对是对的。
您也可以联系文章作者本人进行修改,若内容侵权或非法,可以联系我们进行处理。
任何个人或组织,转载、发布本站文章到任何网站、书籍等各类媒体平台,必须在文末署名文章出处并链接到本站相应文章的URL地址。
本站文章如转载自其他网站,会在文末署名原文出处及原文URL的跳转链接,如有遗漏,烦请告知修正。
如若本站文章侵犯了原著者的合法权益,亦可联系我们进行处理。
您也可以联系文章作者本人进行修改,若内容侵权或非法,可以联系我们进行处理。
任何个人或组织,转载、发布本站文章到任何网站、书籍等各类媒体平台,必须在文末署名文章出处并链接到本站相应文章的URL地址。
本站文章如转载自其他网站,会在文末署名原文出处及原文URL的跳转链接,如有遗漏,烦请告知修正。
如若本站文章侵犯了原著者的合法权益,亦可联系我们进行处理。
THE END