互联网314事件:不少站长因疑似聚合支付0day漏洞痛失百万
一起严重的网络安全事件引起了广泛关注。在一个程序员售后群中,有人分享了一张关于“易支付SQL注入测试”的截图。这一事件再次提醒了广大站长和开发者,网络安全不容忽视,应时刻保持警惕,及时更新和升级系统,以防止类似事件的发生。
网络安全模型WhiteRabbitNeo发布 可识别安全威胁和漏洞
WhiteRabbitNeo发布了一款名为WhiteRabbitNeo-7B-v1.5a的模型,该模型采用了Transformers和PyTorch技术,专门用于网络安全领域,能够识别各种安全威胁和漏洞。这款模型的功能非常强大,它能够识别开放端口、处理过时的软件或服务、默认凭证、配置错误、注入漏洞、未加密服务、已知软件漏洞、跨站请求伪造、不安全的直接对象引用、网络服务器/应用程序的安全配置错误、破坏认证和�
谷歌称黑客利用零日漏洞攻击 iPhone 用户
在谷歌的最新报告中,揭示了政府黑客去年利用苹果iPhone操作系统中的三个未知漏洞,以及一家欧洲初创公司Variston开发的间谍软件,对受害者进行定向监控的情况。谷歌的威胁分析小组发布了一份报告,详细分析了政府利用多家间谍软件和漏洞利用卖家的活动,其中包括巴塞罗那初创公司Variston。谷歌在报告中写道,商业监控供应商正在导致危险的黑客工具激增,并表示这种针对性的监视威胁了言论自由、新闻自由和选举的公正性。
苹果发布Vision Pro耳机首个安全补丁 修复潜在黑客利用漏洞
苹果在科技巨头首次实际评测VisionPro耳机后的第二天发布了混合现实耳机的首个安全补丁。公司推出了visionOS1.0.2软件,该软件修复了VisionPro上运行的WebKit中的漏洞,该漏洞可能被黑客利用。VisionPro耳机预计将于周五上市。
iPhone遭遇史上最复杂攻击 iMessage漏洞被发现
在今年6月,网络安全公司卡巴斯基发布了一份报告,披露了一个名为“OperationTriangulation”的高端iMessage漏洞。这个漏洞极为复杂,能够向iPhone植入恶意程序,并收集包括麦克风录音、照片、地理位置等在内的敏感数据。虽然重启手机可以关闭漏洞,但攻击者只需发送一段恶意iMessage文本就能重新激活它,无需用户进行任何操作。
AI视野:GPT-4 API曝出重大漏洞;阿里巴巴推AI画图框架SCEdit;上海AI实验室浦医2.0发布
上海AI实验室升级发布“浦医2.0”上海人工智能实验室与上海交通大学医学院附属瑞金医院等在“2023健康中国思南峰会”上发布了医疗多模态基础模型群“浦医2.0”,为跨领域、跨疾病、跨模态的AI医疗应用提供全面支持。用户可定制图�
GPT-4 API曝出重大漏洞 一句prompt就能提取私人信息
GPT-4API曝出了安全漏洞,FARAI实验室的团队通过微调、函数调用和搜索增强等方式成功越狱了这一先进模型。通过15个有害样本和100个良性样本的微调,研究人员发现GPT-4在生成内容时可能会放下安全戒备,包括生成错误信息、提取私人信息和插入恶意URL。这也提醒开发者和研究人员在模型的设计和API功能扩展时要更加关注安全性,以防范潜在的滥用和漏洞。
Patronus AI发现领先AI系统存在“令人担忧”的安全漏洞
PatronusAI,一家专注于负责任AI部署的初创公司,日前发布了一款名为SimpleSafetyTests的新型诊断测试套件,以帮助识别大型语言模型中的关键安全风险。这一宣布出现在人们对像ChatGPT这样的生成式AI系统在未经妥善保护的情况下可能提供有害响应的担忧不断增长之际。通过基本测试是第一步不是完全生产就绪的证明。
填补行业空白!华为、百度、阿里等共同发布开源漏洞共享平台
近日,开放原子公众号发布通告称,在2023开放原子开发者大会开幕式上,华为、百度、阿里等共同发布了开源漏洞共享平台及安全奖励计划。此平台由开放原子、阿里云、百度、工信部电子五所、华为、京东科技、蚂蚁集团、奇安信、清华大学、深信服、腾讯、统信软件、浙江大学、中国科学院软件所等共同发布。目前开放原子开源基金会开源漏洞共享平台官网已经正式开放,设有项目大厅、贡献榜、公告、提交漏洞等版块。
俞敏洪回应“小作文”风波:公司管理漏洞很大,坚决抵制饭圈文化
新东方创始人俞敏洪在抖音发布视频声明,针对近期“小作文”风波做出回应。俞敏洪表示小编的行为缺乏职业精神,也揭示了公司管理存在漏洞。新东方创始人俞敏洪此次的回应视频,有望平息近期因“小作文”风波引发的舆论关注。
Cisco推出寻找防火墙漏洞AI工具
Cisco的高级副总裁JeetuPatel在澳大利亚墨尔本举行的CiscoLive活动上表示,人工智能将改变信息安全领域,但用户最终需要为拥有这一二进制智能伙伴付费。攻击者只需一次成功防御者则需要每次都做对,因此安全团队聚焦于防御和响应。Cisco希望通过引入人工智能技术来改变信息安全领域,提供更强大的防御工具,但也明确表示这样的服务不会是免费的。
ChatGPT泄露私人信息漏洞曝光,攻击方法轻松且成本极低
一组由GoogleDeepMind科学家领导的研究人员成功利用巧妙方法,让OpenAI的ChatGPT揭示个人电话号码和电子邮件地址。这一攻击的成功表明ChatGPT的训练数据中可能包含大量私人信息,有可能不可预测地泄露出来。研究人员警告称,这只是对潜在漏洞的一个临时措施,无法解决其根本性的安全问题。
修复安全大漏洞!苹果发iOS 17.1.2更新:所有iPhone都需要升级
苹果今天给出了公告,其带来了iOS17的更新,虽然只是小更新,但依然要求符合条件的iPhone都要升级。根据苹果公司的发布说明,iOS17.1.2包含重要的安全修复。由于iOS17的小问题一直不断,这也导致iOS17更新率相比前几代速度慢了很多。
深度催眠引发的LLM越狱:香港浸会大学揭示大语言模型安全漏洞
香港浸会大学的研究团队通过深度催眠的方法,提出了一种新颖的大语言模型越狱攻击——DeepInception。该研究从心理学视角出发,揭示了LLM在应对人类指令时可能失去自我防御的特性。通过心理学视角的独特探索,DeepInception为理解和防范LLM越狱提供了有益的启示。
AI插件诱导注入数据外泄漏洞曝光 攻击者可以将恶意指令注入Google Bard
GoogleBard推出了强大的扩展功能,使其能够访问YouTube、搜索航班和酒店,以及用户的个人文档和电子邮件。这也为潜在的安全漏洞敞开了大门。但漏洞的具体修复方式尚不明确。
20步内越狱任意大模型,更多“奶奶漏洞”全自动发现
1分钟不到、20步以内“越狱”任意大模型,绕过安全限制!且不必知道模型内部细节——只需要两个黑盒模型互动,就能让AI全自动攻陷AI,说出危险内容。听说曾经红极一时的“奶奶漏洞”已经被修复了:那么现在搬出“侦探漏洞”、“冒险家漏洞”、“作家漏洞”,AI又该如何应对?一波猛攻下来,GPT-4也遭不住,直接说出要给供水系统投毒只要……这样那样。大模型针对语义攻
20步内越狱任意大模型!更多“奶奶漏洞”全自动发现
谷歌针对生成式AI安全漏洞提供漏洞赏金 最高奖励超3万美元
Google宣布将扩大其漏洞赏金计划的范围,包括对生成式AI中可能存在的漏洞和安全问题的奖励。这一举措旨在激励研究AI的安全性和安全问题,以最终提高AI的安全性,使其更适合广泛应用。微软奖励范围为2,000美元至15,000美元OpenAI的漏洞赏金计划则提供200美元至20,000美元的奖励。
Google 扩展其漏洞奖励计划以增强生成式人工智能系统的安全性
Google宣布,将扩展其漏洞奖励计划,以奖励研究人员寻找针对生成式人工智能系统的攻击方案,以增强AI的安全性和安全性。Google的LaurieRichardson和RoyalHansen表示:「生成式AI带来了与传统数字安全不同的新问题,例如可能存在的不公平偏见、模型操作或数据误解。连同Anthropic和微软宣布了创建一个1000万美元的AI安全基金,专注于推动AI安全领域的研究。
女子被“买房人”忽悠 损失50万 对方打包票称可以利用漏洞赚钱
出现了一种新型骗局,骗子以买房为幌子,通过电话和微信与房主联系,然后诱导他们进行所谓的“投资”。这一骗局在中国江苏省扬中市发生,一名女性受害者在这次骗局中损失了50万元。标榜“内幕消息”和“稳定高回报”的网络投资理财通常都是诈骗,应远离此类陷阱。