openai的gpt大模型日益强大,也引起了关于伦理方面的巨大争议。
openai的共同发起人伊隆·马斯克(elon musk)和一群人工智能专家及行业高管在一封最新发布的公开信中呼吁,在未来六个月暂停对gpt模型的训练,以免该模型变得更加强大,从而对社会和人类造成潜在风险。
(资料图片)
这封信由非营利组织未来生命研究所(future life institute)发布,由1000多人联名,其中包括马斯克、stability ai的首席执行官emad mostaque、谷歌旗下deepmind的研究人员,以及人工智能领域的重量级人物yoshua bengio和stuart russell等。他们呼吁在gpt进一步强大之前,需要首先就此类大模型达成由独立专家开发、实施并审核的共享安全协议。
“只有当我们确信它们的影响是积极的,并且它们的风险是可控的时候,才能开发更强大的人工智能系统。”联名信中说道。
值得关注的是,openai的首席执行官阿尔特曼(sam altman)没有在这封信上签名。
这封信还详细说明了人工智能系统可能与人类竞争,并可能对经济、政治、社会和文明造成的潜在风险。联名专家们提出,应针对这些风险,研发人员应该与政策制定者就人工智能的治理和监管机构进行合作。
今日,第一财经记者提问chatgpt怎么看马斯克等人叫停对它的训练,chatgpt回答道:“马斯克叫停gpt训练可能有多种原因,其中一个可能是担心模型被误用或滥用,尤其是在自然语言生成和信息操纵方面。gpt模型能够生成自然语言文本,包括虚假或有害信息,这可能会对社会和个人造成危害。此外,gpt模型也可能有隐私问题,因为它可以生成人类语言,可能会包含敏感信息。”
chatgpt认为,叫停gpt训练主要是出于对社会责任和技术发展的前瞻性方面的考虑。它还提到,gpt模型可能存在一些局限性,或者不是解决某些问题的最佳方法,因此需要尝试寻找更好的替代方案。
近期,马斯克已多次在社交媒体上表达对openai的不满。他在3月24日的twitter上写道:“我最早向openai捐赠了1亿美元,当时它还是非营利的机构,没有所有权,也不受任何人控制。”他还抨击微软“将openai占为己有”。
马斯克还曾多次呼吁对人工智能的监管。“没有对人工智能的监管,这是一个主要问题。十多年来,我一直在呼吁人工智能安全监管!”他在去年12月发的推文中表示。他还在gpt4发布后再次表达担忧。他写道:“我们人类还有什么可做的?”
这封联名信发表之前,一位名叫michal kosinski的斯坦福大学计算心理学家在社交媒体上曝光了gpt-4的一项“逃跑计划”,并称ai能引诱人类提供开发文档,30分钟就拟定出一个完整计划,甚至还想控制人类电脑。
kosinski疾呼:“我担心人类无法持久地遏制住ai。ai很聪明,会编码,能接触到数百万个人和电脑。”此言一出便引来众多网友围观,有人称gpt“打开了物种灭绝的大门”。
面对业内对ai“邪恶”想法的质疑,gpt之父阿尔特曼在近期的一次公开采访中回应称:“ai至今仍然是一种非常受人控制的工具。”但他也承认,一些拥有ai输入控制权的人可能无视人们对人工智能设置的一些安全限制。
“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何对其进行监管,如何处理它。”阿尔特曼说道。他也呼吁监管机构和社会需要进一步参与这项技术,以防止对人类造成潜在的负面影响。
“我特别担心这些模型可能会被用于大规模的虚假信息,”阿尔特曼说道,“现在他们在编写计算机代码方面做得越来越好,可以用于进攻性网络攻击。”
针对这种担忧,微软周二宣布推出一款新的ai聊天机器人产品security copilot,以帮助网络安全专业人士了解关键问题并找到解决问题的方法。这款最新的ai聊天机器人能够描述网络活动安全漏洞的暴露情况,并指出利用漏洞的帐户。微软的网络安全业务在2022年收入超过200亿美元。
自人工智能诞生以来,治理问题就一直是全球监管机构关注的热点。最新涌现出来的chatgpt这类人工智能的新技术,为欧盟正试图起草的人工智能法案带来新的挑战。欧盟正着手准备创建一个新的监管部门来应对ai的治理。
英国也正在计划如何分配竞争监管机构管理人工智能的职责。英国政府表示,随着chatgpt应用程序等技术的进步,人工智能正在迅速发展,它可以提高生产力并帮助推动增长,但人们担心它可能对隐私或安全构成风险。
英国政府3月29日发布了一项计划,将不会专门成立一个负责人工智能技术监管的部门,并将避免可能扼杀创新的严厉立法,而是会根据安全、透明、公平和问责制等广泛原则采取适应性强的监管方法。
栏目主编:张武
文字编辑:程沛
本文作者:第一财经资讯
题图来源:上观题图
图片编辑:徐佳敏
标签: