OpenAI透明度承诺放缓,拒绝向公众开放内部文件
自成立以来,OpenAI作为人工智能初创公司,一直以公开透明的原则为特征,并承诺向公众开放其内部文件。最近的人事变动引发了一系列变化,OpenAI的透明度似乎在下降。这也引发了一些关于公司透明度和治理结构的担忧。
IBM 推出 Watsonx.governance 以提升企业 AI 模型透明度和治理能力
IBM今日宣布,旗下产品Watsonx.governance将于12月初正式面市,旨在帮助企业提升对人工智能模型的透明度,消除数据中的神秘面纱。在大型语言模型或基础模型的推动下,生成式人工智能为企业带来诸多用途,但同时也引发新的风险和复杂性。该公司最近还宣布了对其IBM研发的watsonx模型的知识产权保护。
人工智能模型透明度评估:Llama 2位列第一,GPT-4透明度不佳
人工智能领域的主流模型透明度成为焦点,斯坦福大学、MIT、普林斯顿大学等机构合作提出了“基础模型透明度指数”来评估十大主流AI模型的透明度。Llama2位列第一GPT-4等模型的透明度较低。在当前的政策争论中,是否应该将人工智能模型开源成为一个争议焦点,但无论开源还是闭源,透明度都是关键因素,以确保AI模型的负面影响得到控制。
斯坦福研究发现全球最大AI模型Llama 2缺乏透明度
斯坦福大学最近发布的研究报告指出,全球最大的AI基础模型开发者,包括Meta和OpenAI在内,未能提供足够的关于其潜在社会影响的信息。这一研究名为“基础模型透明度指数”,旨在追踪顶级AI模型开发者是否公开信息,以便了解他们的工作及人们如何使用其系统。这一研究突显了AI行业在透明度方面面临的挑战,以及监管对于促进更多透明度的重要性。