网络安全模型WhiteRabbitNeo发布 可识别安全威胁和漏洞
WhiteRabbitNeo发布了一款名为WhiteRabbitNeo-7B-v1.5a的模型,该模型采用了Transformers和PyTorch技术,专门用于网络安全领域,能够识别各种安全威胁和漏洞。这款模型的功能非常强大,它能够识别开放端口、处理过时的软件或服务、默认凭证、配置错误、注入漏洞、未加密服务、已知软件漏洞、跨站请求伪造、不安全的直接对象引用、网络服务器/应用程序的安全配置错误、破坏认证和�
网络安全专家 Mikko Hyppönen 对 2024 年的五大 AI 网络威胁发出警告
在网络安全前线战斗了数十年的MikkoHyppönen,这位54岁的专家最近在一次视频通话中向TNW透露了他对2024年最令人担忧的五大人工智能网络威胁。这些威胁并没有特定的顺序,尽管其中有一个是导致他最为失眠的。「我们正在构建的东西必须理解人性,并与人类分享其长期利益......好处是巨大的——比任何事情都大——但坏处也比任何事情都大。
Sam Altman 警告人工智能的潜在威胁 但仍然希望全世界都能使用它
站长之家11月1日消息:OpenAI的CEOSamAltman最近对公众表示,他的公司背后的技术可能会威胁到人类文明的未来。今年5月,Altman在华盛顿特区的一个参议院小组委员会听证会上紧急呼吁立法者:制定周密的法规,以拥抱人工智能的强大前景,同时减轻其对人类的潜在威胁。面对可能会成为大规模毁灭性武器的技术,世界正在指望Altman能够为人类的最佳利益采取行动。
苹果发布Vision Pro耳机首个安全补丁 修复潜在黑客利用漏洞
苹果在科技巨头首次实际评测VisionPro耳机后的第二天发布了混合现实耳机的首个安全补丁。公司推出了visionOS1.0.2软件,该软件修复了VisionPro上运行的WebKit中的漏洞,该漏洞可能被黑客利用。VisionPro耳机预计将于周五上市。
Patronus AI发现领先AI系统存在“令人担忧”的安全漏洞
PatronusAI,一家专注于负责任AI部署的初创公司,日前发布了一款名为SimpleSafetyTests的新型诊断测试套件,以帮助识别大型语言模型中的关键安全风险。这一宣布出现在人们对像ChatGPT这样的生成式AI系统在未经妥善保护的情况下可能提供有害响应的担忧不断增长之际。通过基本测试是第一步不是完全生产就绪的证明。
修复安全大漏洞!苹果发iOS 17.1.2更新:所有iPhone都需要升级
苹果今天给出了公告,其带来了iOS17的更新,虽然只是小更新,但依然要求符合条件的iPhone都要升级。根据苹果公司的发布说明,iOS17.1.2包含重要的安全修复。由于iOS17的小问题一直不断,这也导致iOS17更新率相比前几代速度慢了很多。
深度催眠引发的LLM越狱:香港浸会大学揭示大语言模型安全漏洞
香港浸会大学的研究团队通过深度催眠的方法,提出了一种新颖的大语言模型越狱攻击——DeepInception。该研究从心理学视角出发,揭示了LLM在应对人类指令时可能失去自我防御的特性。通过心理学视角的独特探索,DeepInception为理解和防范LLM越狱提供了有益的启示。
20步内越狱任意大模型,更多“奶奶漏洞”全自动发现
1分钟不到、20步以内“越狱”任意大模型,绕过安全限制!且不必知道模型内部细节——只需要两个黑盒模型互动,就能让AI全自动攻陷AI,说出危险内容。听说曾经红极一时的“奶奶漏洞”已经被修复了:那么现在搬出“侦探漏洞”、“冒险家漏洞”、“作家漏洞”,AI又该如何应对?一波猛攻下来,GPT-4也遭不住,直接说出要给供水系统投毒只要……这样那样。大模型针对语义攻
20步内越狱任意大模型!更多“奶奶漏洞”全自动发现
谷歌针对生成式AI安全漏洞提供漏洞赏金 最高奖励超3万美元
Google宣布将扩大其漏洞赏金计划的范围,包括对生成式AI中可能存在的漏洞和安全问题的奖励。这一举措旨在激励研究AI的安全性和安全问题,以最终提高AI的安全性,使其更适合广泛应用。微软奖励范围为2,000美元至15,000美元OpenAI的漏洞赏金计划则提供200美元至20,000美元的奖励。
Google 扩展其漏洞奖励计划以增强生成式人工智能系统的安全性
Google宣布,将扩展其漏洞奖励计划,以奖励研究人员寻找针对生成式人工智能系统的攻击方案,以增强AI的安全性和安全性。Google的LaurieRichardson和RoyalHansen表示:「生成式AI带来了与传统数字安全不同的新问题,例如可能存在的不公平偏见、模型操作或数据误解。连同Anthropic和微软宣布了创建一个1000万美元的AI安全基金,专注于推动AI安全领域的研究。