手机版 欢迎访问人人都是自媒体网站
全球24名AI专家联合发文:至少?研发预算要用于确保安全
·这是人工智能专家今年签署的关于AI风险的第三份重要声明,与之前两份不同的是,新声明是对各国政府询问“要做什么”的回答。
·这篇文章提出,确保主要科技公司和公共投资者将至少三分之一的人工智能研发预算用于确保安全和合乎道德的使用,并呼吁制定国家和国际标准。
当地时间10月24日,包括图灵奖获得者杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)在内的24名人工智能专家联合发表文章《在快速进步的时代管理人工智能风险》,呼吁各国政府采取行动管理人工智能带来的风险。该文章特别关注最先进系统带来的极端风险,例如助长大规模犯罪或恐怖活动。
文章提出了一些具体的政策建议,例如确保主要科技公司和公共投资者将至少三分之一的人工智能研发预算用于确保安全和合乎道德的使用。作者还呼吁制定国家和国际标准。
这份文件的作者包括中国专家:清华大学交叉信息研究院院长姚期智、清华大学智能产业研究院院长张亚勤、清华大学人工智能国际治理研究院院长薛澜和华东政法大学政治学研究院院长高奇琦。
?
《在快速进步的时代管理人工智能风险》的作者名单。
“谨慎乐观语气”
作者之一、加州大学伯克利分校计算机科学教授斯图尔特·罗素(Stuart Russell)表示,最新的声明与之前专家主导的公开信有所不同,因为“各国政府已经意识到存在真正的风险。他们向人工智能圈询问‘要做什么?’该声明就是对这个问题的回答。”
这是人工智能专家今年签署的关于AI风险的第三份重要声明。3月,包括特斯拉创始人埃隆·马斯克、本吉奥和罗素在内的数万人签署了一封公开信,呼吁人工智能实验室“立即暂停训练比GPT-4更强大的人工智能系统至少6个月”。
5月,人工智能安全中心组织的一份声明称,“与流行病和核战争等其他社会规模风险一样,减轻人工智能带来的灭绝风险应该成为全球优先事项。”该声明由500多名著名学者和行业领袖签署,其中同样包括辛顿、本吉奥和罗素,也包括3个最著名AI公司的首席执行官:OpenAI的山姆·奥特曼(Sam Altman)、DeepMind的德米斯·哈萨比斯(Demis Hassabis)和Anthropic的达里奥·阿莫代(Dario Amodei)。
机器人公司Covariant.ai的联合创始人、总裁兼首席科学家、加州大学伯克利分校电气工程和计算机科学教授彼得·阿贝尔(Pieter Abbeel )没有签署之前的公开信,但签署了最新声明。阿贝尔告诉《时代》杂志,这份最新声明的谨慎乐观语气比之前公开信中令人震惊的语气更符合他的观点。
文章说了什么?
“人工智能在蛋白质折叠或策略游戏等狭窄领域已经超越了人类的能力。与人类相比,人工智能系统可以更快地行动,吸收更多的知识,并以更高的带宽进行通信。此外,它们可以扩展以使用巨大的计算资源,并且可以进行数百万次复制。”文章写道,“改进的速度已经是惊人的了,科技公司拥有所需的现金储备,可以很快将最新的训练规模扩大100到1000倍。结合人工智能研发的持续增长和自动化,我们必须认真对待通用人工智能系统在这十年或未来十年内在许多关键领域超越人类能力的可能性。”
文章认为,现在调整已经落后于计划。“我们必须预见到持续危害和新风险的扩大,并在最大风险发生之前做好准备。人们花了几十年的时间才认识和应对气候变化;对于人工智能来说,几十年可能太长了。”
在社会规模风险方面,自主人工智能系统可以越来越多地承担关键的社会角色。“如果没有足够的谨慎,我们可能会不可逆转地失去对自主人工智能系统的控制,从而导致人类干预无效。大规模网络犯罪、社会操纵和其他突出危害可能会迅速升级。这种不受控制的人工智能进步可能最终导致生命和生物圈的大规模丧失,以及人类的边缘化甚至灭绝。”
Copyright © 2018 DEDE97. 织梦97 版权所有 京ICP