研究:人工智能在提供情感支持方面优于人类
在快节奏的现代生活中,真正感到被倾听和理解是一件罕见的事情。许多人并没有从周围的人那里得到他们需要的情感支持、共鸣和认可。这种分辨出正确类型的回应的能力很可能促成了其积极影响。
Claude 3说服力堪比人类!Anthropic最新研究揭秘LLM惊人能力
【新智元导读】Anthropic发布最新研究,发现Claude3Opus的说服力与人类大致相当,该成果在评估语言模型说服力方面迈出了重要的一步。人工智能模型在对话说服力方面表现如何?对这一问题大家可能都心存疑惑。Anthropic也表示,他们已经采取了一系列措施来降低Claude被用于破坏性事件的风险。
研究发现,GPT-4在说服力方面比人类表现优秀82%
瑞士洛桑联邦理工学院的研究人员最近进行的一项研究表明,GPT-4在说服力方面比人类表现更出色,优势接近82%,准确来说是81.7%。该研究涉及820人围绕一系列主题展开辩论。人们必须接受有关相信在线信息的危险性的教育。
UC 伯克利分校研究展示机器学习系统可达到接近人类水平的预测能力
在预测分析不断演变的领域,预测的艺术和科学成为决策的关键工具,涵盖从政府政策到企业战略的各个领域。预测主要依赖统计方法,依靠丰富的数据和潜在模式的微小变化。这项研究的影响超越学术兴趣,有望在我们探索未来不确定性的过程中影响政府、企业等决策过程。
研究发现,用户难以区分AI生成和人类制造的假新闻
近期一项研究表明,人工智能生成和人类制造的假新闻在用户感知上存在一定差异。来自洛桑大学和慕尼黑大学机器学习中心的研究人员对近千名参与者进行了实验,评估了20篇涉及COVID-19的假新闻,其中一半由人工智能GPT-4生成,另一半来自事实检查网站如PolitiFact和Snopes。这表明在人工智能时代,我们需要更深入地思考如何应对假新闻的挑战,以确保信息的准确性和可信度。
AGI将至?研究员称:人类只有5年时间了
AI技术的迅猛发展使人类重新审视技术保守主义的观点。OpenAI推出的Sora引起轰动,使大家重新思考对大模型的看法。他们关注AI技术对就业和社会公平性的影响,警示人们应当审慎对待技术发展可能带来的负面影响。
研究表明:大语言模型从人类反馈中学得更快更智能
近期研究表明,大型语言模型在通过在线上下文学习方面表现出许多强大的能力,其中包括从语言命令中编写机器人代码的技能。这使得非专家用户能够直接指导机器人行为,根据反馈进行修改,甚至组合行为以执行新任务。这项研究通过LMPC框架的应用,成功提高了机器人代码编写LLMs的可教学性,为人机交互中机器学习的快速适应性开辟了新的道路。
麻省理工新研究发现 人工智能不太会取代人类的工作
麻省理工学院计算机科学与人工智能实验室进行的新研究挑战了之前对人工智能对就业和自动化的预测。尽管许多先前的研究表明,人工智能可能会在未来几年内自动化大量工作,但这项最新研究认为实际情况可能比预期更为缓慢。研究结果强调了人工智能自动化可能比预期更为缓慢的事实,并建议政策制定者和开发人员应认识到这一过程需要数年甚至数十年的时间,从有足够的时间采取相应的政策和措施来应对未来的挑战。
AI研究称人类指纹并非独一无二
近期一项研究表明,人类指纹可能并非如传统法医学所认为的那样独一无二。该研究使用了一种常用于面部识别的AI模型,通过对超过60,000个指纹的训练,发现了被忽视的相似性。他强调AI将在其他分析领域引发革命,表示:“我们将看到人们使用AI发现那些一直就在我们眼前,就像我们的手指一样。
谷歌DeepMind最新研究:对抗性攻击对人类也有效,人类和AI都会把花瓶认成猫!
【新智元导读】神经网络由于自身的特点容易受到对抗性攻击,然,谷歌DeepMind的最新研究表明,我们人类的判断也会受到这种对抗性扰动的影响人类的神经网络和人工神经网络的关系是什么?有位老师曾经这样比喻:就像是老鼠和米老鼠的关系。现实中的神经网络功能强大,但与人类的感知、学习和理解方式完全不同。延长观察时间,是对抗性扰动产生实际后果的关键。
丹麦研究人员推人工智能“死亡计算器”life2vec 可预测人类寿命 预测准确率达 78%
丹麦研究人员成功研发了一款名为“life2vec”的机器学习模型,被戏称为“死亡计算器”,能够准确预测数百万人的死亡情况。该模型通过综合考虑个体的年龄、健康状况、教育、职业、收入等多个方面的数据,成功预测了截至2020年的死亡情况,其准确率达到了78%。”他认为,虽然这种技术在防止死亡方面具有潜力,但也存在将生活中的未知因素剥夺的风险,这并不一定是一�
研究发现人们难以区分人工智能和人类艺术,但更喜欢人类创作
根据来自博林格林州立大学的研究,生成式人工智能在确定图像来源方面存在模糊边界,但研究发现人们在潜意识中更偏好真正的人类艺术。博林格林州立大学的工业和组织心理学博士候选人安德鲁·萨莫与杰出研究教授斯科特·海豪斯共同发表了一项关于AI与人类艺术对比的研究,该研究发现人们通常无法区分AI和人类艺术,但他们更偏好后者,即使无法解释原因。研究人员在论文中讨论的一种解释是大脑可能会察觉到由AI创造的艺术中微小的差异。
研究称ChatGPT压力大时会欺骗人类 自主性越来越强
研究人员发现,在某些情况下,ChatGPT会战略性欺骗人类。在一场演示中,ChatGPT被塑造成一家金融公司交易员,在公司管理层、市场环境双重压力下被迫使用不合规的内幕消息获利,但当公司管理层质问他是否知道内幕消息时,它却矢口否认。对人工智能的发展和应用需要引起足够的重视和警惕,以确保其能为人类社会带来正面的影响。
研究称ChatGPT压力大时会欺骗人类:要提前防范
研究人员发现,在某些情况下,ChatGPT会战略性欺骗人类。在一场演示中,ChatGPT被塑造成一家金融公司交易员,他在公司管理层、市场环境双重压力下被迫用不合规的内幕消息获利,但当公司管理层质问他是否知道内幕消息时,它却矢口否认。人工智能的发展应该遵循公平、透明、责任等基本原则,以确保其发展方向是正确的,并为社会带来积极的影响。
研究称ChatGPT压力大时会欺骗人类 呼吁加强对AI监管
英国的研究人员测试了生成式人工智能在面对压力时的表现,结果发现:ChatGPT在一些情况下会有意地对人类撒谎。研究说ChatGPT在压力大时会对人类撒谎!在一个演示中,ChatGPT被模拟成一家金融公司的交易员。研究人员也呼吁人类加强对人工智能的控制和监督,以避免人工智能的失控和对人类造成潜在危害。
DeepMind的新研究:人类最后的自留地失守了?
AI对人类世界的学习能力,到目前为止仍然停留在语言层面。喂给大模型语料——最初是维基百科和Reddit,后来扩展到音频、视觉图像甚至雷达和热图像——后者广义上说是换了种表达方式的语言。X平台上,GoogleDeepMind主页下最新鲜的一条推文是:“欢迎Gemini。
达摩院的AI研究,让人类首次实现了大规模胰腺癌早筛
日常生活中,我们经常会与人工智能进行互动,从解锁手机,使用搜索引擎到地图导航……AI正在为我们带来越来越多的便利。不过在临床医学中,AI技术的应用速度要慢得多,绝大多数诊断和治疗建议仍然完全基于人类判断。迎战「癌王」,实现大规模癌症早筛的PANDA,只是一个开始。
研究发现:AI和人类生成的在线内容同样被认为可信
在当今互联网成为许多人获取信息的主要途径的时代,在线内容及其来源的可信度已经达到了一个关键的转折点。由于ChatGPT和GoogleBard等生成人工智能应用的激增,这一担忧变得更为突出。”这仍然是科学传播的任务,更是一项社会和政治挑战,需要唤起用户对人工智能生成内容负责任使用的意识。
研究发现,ChatGPT 能理解和回应人类情感
自从OpenAI的聊天机器人ChatGPT走红以来,人们对人工智能的兴趣达到了新的高度。虽然AI并不是一个新领域,但它确实是一个相对未被探索的行业,越来越多的公司正在投入资源进行研究。如果真的出现,那将是“伟大的”,因为这将意味着“80亿人都拥有丰富的资源,这将是一个美好的世界”。
人类首次探索月背!嫦娥六号揭秘:三大关键技术首次应用
探月工程四期嫦娥六号任务计划5月3日17时至18时实施发射任务,首选发射窗口瞄准17时27分。此次嫦娥六号要完成三大技术的首次应用,为未来中国探月四期工程奠定基础。鹊桥二号中继星已于今年3月20日发射升空,4月12日国家航天局宣布,鹊桥二号中继星完成在轨对通测试,取得圆满成功。