警惕人工智能助力的生物恐怖主义

英国《金融时报》科学评论员 安贾娜•阿胡贾
本文作者是科学评论员

往下看,这里没什么可看的。这似乎是OpenAI上周传出的关于一项实验的信息,该实验测试其先进的人工智能聊天机器人GPT-4是否可以帮助精通科学的个人制造和释放生物武器。

OpenAI宣布,该聊天机器人对个人制造和释放生物武器的能力“最多提供了轻微的提升”,不过它补充说,迫切需要在这个问题上做更多的研究。头条新闻重复了令人欣慰的结论,即大型语言模型不是恐怖分子的“菜谱”。

然而,深入研究一下这项实验,事情看起来并不那么令人放心。在实验设想的过程的几乎每一个阶段,从采购生物制剂到扩大规模和释放它,有了GPT-4加持的实验参与者比仅使用互联网的对手更能接近他们的邪恶目标。

这次实验的主要收获不应该是一种放心感。“Open AI应该对这些结果感到相当担忧,”曾在美国参议院一个委员会就人工智能监管作证的评论员加里•马库斯(Gary Marcus)上周在他广为阅读的时事通讯中写道。

You need to be logged in to view the rest of the content. 请 . Not a Member? 加入会员

Please Login to Comment.