“AI 教父”再发人类存亡警告:人工智能可能导致人类在30年内灭绝,风险高达20%

图片

人工智能领域的领军人物、2024年诺贝尔物理学奖得主杰弗里·辛顿近日发出惊人预言,称人工智能可能导致人类在三十年内灭绝,且这一风险高达20%,较其一年前的预估提升了整整一倍。

在周四接受BBC Radio 4的访谈时,辛顿被问及对于AI末日概率的看法是否有所变化。这位被誉为“人工智能教父”的图灵奖得主回应道:“不是十分之一,而是十分之二,也就是20%。”此番言论引得该节目客座编辑、前财政大臣萨吉德·贾维德幽默调侃道:“您这是要火啊!”对此,去年从谷歌离职的这位计算机科学家笑称:“毕竟,我们从未处理过比我们自身更聪明的事物。”

辛顿,这位英裔加拿大科学家,因其对AI领域的卓越贡献而荣获今年的诺贝尔物理学奖。他强调了控制高级AI系统的巨大挑战,并比喻道:“你能想到多少个更聪明的事物被一个不太聪明的事物控制的例子吗?进化让婴儿控制母亲付出了巨大努力,但这是我所知的唯一案例。”他进一步设想:“想象一下,你与一个三岁的孩子,而我们未来将成为那个三岁的孩子,而AI将比人类更聪明。”

辛顿指出,AI的发展速度“远超预期”,并呼吁加强监管以确保安全。他警告说,不能仅仅依赖公司的利润动机来保障安全,他强调:“唯一能迫使大公司对安全进行更多研究的,是政府监管。”

去年5月,人工智能安全中心发布了一份由辛顿等该领域知名科学家签署的声明,其中包括特斯拉CEO埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克以及因神经网络研究而被视为AI先驱的约书亚·本吉奥等。该声明警告:“减轻人工智能灭绝的风险应成为全球优先事项,与大流行病和核战争等其他社会风险并列。”

辛顿认为,AI系统最终可能超越人类智能,逃脱人类控制,并可能对人类造成灾难性伤害。他主张投入大量资源来确保AI的安全和道德使用,并强调迫切需要采取积极措施,以免为时已晚。

然而,Meta首席人工智能科学家Yann LeChun却持相反观点,他认为这项技术“实际上可以拯救人类免于灭绝”。

在朋友圈分享这个故事;关注『跟着大事跑的人』,每天了解全球热点!