AI是否应该开源?两方唇枪舌战 – 华尔街日报

特斯拉首席执行官马斯克对OpenAI及其首席执行官阿尔特曼提起诉讼,这引发了X上关于AI的激烈讨论。

在过去的几天里,风险投资界最著名的两位人物Marc Andreessen和Vinod Khosla就硅谷最具分歧的话题之一在X上展开了激烈的争论:AI应该开源开发还是幕后开发?

Andreessen等开源AI技术的支持者表示,开源AI代表着科学的开放共享和更高的透明度,也是防止科技巨头利益集团垄断一项强大技术的方式。Khosla等幕后AI开发的支持者则表示,公司或其他私营实体提供了一种防范AI潜在危险和被滥用的方法。

开源AI是免费发布的,供公众在此基础上构建和共享,而不公开的或专有AI则由其创造者私人控制和共享。但这两种方法并不相互排斥,它们可以共存。公司在开源代码的基础上构建私有系统就是一个例子。

Marc Andreessen是硅谷风投公司Andreessen Horowitz的联合创始人。

在X上的争论最初由马斯克(Elon Musk)对OpenAI及其首席执行官阿尔特曼(Sam Altman)提起的诉讼引发。这场争论凸显了在AI的发布和安全性问题上找到明确答案的难度,尤其是在监管机构、科技巨头、科学家和各国政府仍然不知道这项技术会发展到什么程度以及发展速度有多快的情况下。

在与这场争论有利害关系的科技巨头中,Meta倡导开源AI,并发布了Llama 2模型,供公众下载和修改。总部位于巴黎的Mistral AI发布了具有开放“权重”的模型,开放的是构成模型内部工作原理的数值参数。与此同时,业内最大的AI初创公司OpenAI和Anthropic都在销售封闭源代码的AI模型。

Andreessen Horowitz的联合创始人Andreessen上周六发帖称,Khosla正在“游说禁止开源”。在Andreessen发表评论之前,Khosla在马斯克提起诉讼后对阿尔特曼和OpenAI进行了声援,马斯克的诉讼指控两者都违反了该公司的创始协议,即致力于公共、开源的AI,而非优先考虑利润。

Khosla Ventures的创始人Khosla也是OpenAI营利性部门的支持者,他回应说,AI就好比核武器,开源AI会危及国家安全。Khosla最近的帖子提到了OpenAI的技术前瞻者Ilya Sutskever说过的一句话:“不分享科学成果也完全没问题”。

Khosla Ventures的一位发言人指出,之前Khosla曾发表过一篇支持开源技术的帖子,但认为大型AI模型是一项需要严密保护的“国家安全和技术”优势。

Andreessen Horowitz没有回应记者的置评请求。

上述两个阵营之间普遍达成的共识是,大型语言模型——即为ChatGPT提供动力并在海量数据基础上进行培训的算法,并不是一项完全成熟的技术。ChatGPT和其他AI工具可能会产生幻觉,生成有偏见的结果以及带有恶意或攻击性的输出。除此之外,它们的使用和培训成本高得惊人,而且耗能巨大。

You need to be logged in to view the rest of the content. 请 . Not a Member? 加入会员

Please Login to Comment.