人类编码的终结?如果认为GPT-3会让人类下岗,恐怕未编码过

本文转载自公众号“读芯术”(ID:AI_Discovery)。

GPT-3的强大功能令人惊叹,很多人认为这意味着人类编写代码的终结。但在笔者看来,尽管它十分具有开创性,但由此得出软件工程师会遭淘汰结论还为时尚早。

如果你认为GPT-3会让编码人员成为历史,那么你可能从未编写过代码,这是那些以编写代码为生的人早已知道的。

人类编码的终结?如果认为GPT-3会让人类下岗,恐怕未编码过

开发人员获得报酬并不是因为编写代码

正如大卫·威廉姆斯所说:“代码不是解决方案,而是要将解决方案实现。”我们得到报酬是因为解决了问题。代码是解决问题的一种手段,但也是一项繁重的工作,也有难以规避的弊端。

对于开发人员来说,编写代码很容易。在多层次的约束条件下,澄清一个问题并解决它要困难得多。这就是编写代码和编写软件的区别。

GPT-3太过复杂,无法扩展

GPT-3需要大量的专业知识,对于个人和小型企业来说太过昂贵。OpenAI也表示:基于API的模型非常庞大,需要大量的专业知识来开发和部署,而且运行起来非常昂贵。除了大公司以外,其他人很难从底层技术中获益。

为什么模型只能通过API而非开源,OpenAI解释了三个原因中的一个。它是巨大的,拥有1750亿个参数的GPT-3使“只”有15亿个参数的GPT-2相形见绌。

鉴于摩尔定律的消亡,在不久的将来,我们无法在私人电脑上看到这样的模型运行。也就是说,笔者认为这是一个暂时性的问题。模型只能变得这么大,而且仍然具有成本效益。在某种程度上,我们不得不开发出更小或更智能的模型,即使这需要完全不同的硬件。

人类编码的终结?如果认为GPT-3会让人类下岗,恐怕未编码过

图源:unsplash

我们还不相信人工智能

银行或军事技术中的错误代码显然会造成很大问题,但常规网络应用程序中的安全漏洞也可能是灾难性的(来自Equifax)。

就像自动驾驶汽车,人工智能必须比人类的最高水平还要高,人们才能相信它。自动驾驶汽车的最大问题之一不是技术层面上的,而是哲学上的:它达到怎样的安全系数才算是足够安全?

人们通常将此约束应用于高风险域。但是鉴于2020年代码渗透到大多数技术中,它存在着很大的下行空间。从技术上来看,可以通过查看人工智能的代码来克服这一问题。但是,当人们无法读懂代码时又会发生什么呢?

没有“软件工程师”,所有技术都是黑匣子

如果人类不再编写代码,那我们还可以理解人工智能编写的代码吗?

有了人工智能编写软件,人们就不会花数千个小时来熟练掌握它。如果人们不擅长编写软件了,又该如何审查它们呢。在这种知识流失的情况下,所有技术实质上都变成了黑匣子。人类社会是否愿意走到这一步呢?

在不太遥远的未来,如果第三方拥有的人工智能和人类无法维护的和代码组合起来,有可能会带来巨大的商业风险。

人类编码的终结?如果认为GPT-3会让人类下岗,恐怕未编码过

图源:unsplash

GPT-3创建了无代码编码的文本界面

GPT-3创建了一个布局生成器。尽管在无监督学习情况下它确实令人印象深刻,但通过文本放置按钮的能力对于人工智能编写代码来说,这似乎只是微小的胜利。

  • 20世纪90年代以来,我们就有了拖拽式网页编辑器,可以生成HTML和CSS。
  • 自软件开始使用以来,自动化代码就已经存在并在不断发展。甚至像Ruby on Rails这样的框架,在应用程序开发期间也会尽可能多地搭建通用代码来节省时间。

因此,尽管笔者个人怀疑GPT-3很快会出现更复杂的用例,但我们目前看到的它能做的并不全是软件工程师的工作。

撇开反对的声音,GPT-3是令人难以置信的。如果“真正的人工智能”的标准不会再变高的话,那么GPT-3就已经是“真正的人工智能了”。

相关推荐