首页 / 新闻博客 / 与 John Maeda 探讨人工智能的潜力与局限

与 John Maeda 探讨人工智能的潜力与局限

2023.02.27

除非你以制造或编程计算机为生,否则可以原谅自己从未想过计算机背后到底发生了什么。计算机是如何做决定的?它们的指令是什么样的?它们会思考吗?

简短的回答是否定的。计算机还不能像我们这样思考。至少,现在还不行。但是,人工智能技术(AI)每天都在变得越来越接近,引发了关于伦理、设计以及活着意味着什么的基本问题。设计师兼技术专家 John Maeda 在他的书《如何说机器的语言》(How To Speak Machine) 中承认了我们许多人对 AI 的担忧:机器人不仅看起来和听起来越来越逼真,而且它们对输入的反应如此之快,耐力如此之强,以至于我们人类开始感到威胁。没有人喜欢被自己的创造物超越(或取代)。

但我们应该担心吗?  Maeda ——一个有实践经验支持的人工智能爱好者,认为不应该。他说:“如果你总是超越自己的能力,你永远不会成为完全可有可无的人。”这就是人类难以被复制的原因。

考虑到这一点,我向他提出了五个问题,探讨人类和计算机处理信息的方式之间的差异,以及这对人工智能的未来意味着什么。

(为清晰起见,本文经过编辑。)

1: 机器人真的要来抢我们的工作吗?

他们已经来了。想想洗碗机。这是一种不仅在家庭,还在餐馆、自助餐厅和其他工业厨房设施中取代了大量人力工作的机器。想想银行提款机。我们以前必须和人类交谈才能从银行取钱,现在不用了。想想使用机器人电话的客户支持热线。所以,是的。我认为机器人总是在取代我们的工作。

《卫报》 (The Guardian) 上有一篇文章,展示了一个写作算法如何写出看起来像是我们人类写的东西。这令人感到不安。但是,当你把它放在非原创的背景下考虑时,它就不那么令人不安了,比如沙发的新闻发布稿。你只有这么多方法可以写--"嗯,它有四条腿...... "或其他。这种工作有很多年了,解决它的方法也有很多,这意味着有大量的数据集。因此,这类工作很容易被取代,因为机器学习系统喜欢数据。一旦有了数据,就可以创建重复的模式。

对于那些没有可重复模式的事情,我们总是有工作要做。当涉及到别人没有想到的原创事物或个人观点时,人工智能就不擅长了。至少现在是这样。

2: 人工智能真的能以一种令人信服的方式恶搞人类吗?

你知道流行电台在早间谈话节目中是如何做的吗?他们会给一些随机的人打电话,假装他们是一个客户服务代表之类的,只是为了吓唬他们吗?那是一个人在愚弄另一个人。或者当我们让 AI 创建一个人的脸的图像,看起来真的像那个人的脸。所以,人类可以假装自己是别人,机器也可以这样做。而且,机器可以大规模地做到这一点。

我写《如何说机器的语言》的原因是想表明机器可以做的不仅仅是两三件重复的事情。机器可以在数百万的规模上做事情,因为它们永不疲惫。所以,收音机里的那个恶搞片段,有人假扮打电话给某人家,假装取消他们的婚礼酒店,很有趣。但如果全世界的每个人都被机器人假扮,那就令人担忧了。

大卫·鲍伊 (David Bowie) 在 1999 年接受 BBC 采访时预言了这一点,尽管他指的是当时刚刚兴起的互联网。他说:“嗯,这将改变艺术家和观众,以及唱片公司之间的关系。”他阐述了它将如何既令人惊叹又令人恐惧。BBC 的分析师说,“哦,它只是一个工具,不是吗? 然后鲍伊说:“不不不。它不仅仅是一个工具,它是一种外星生命形式。”

你可以把  AI  想象成另一种外星生命形式。如果你了解它,它可以为你做惊人的事情。反过来,它也可以做有害的事情,而显然,这是有后果的。

3:  说到有害后果,自动驾驶汽车真的会杀人吗?

过去的人工智能不同于现在的人工智能。这一切在 2012 年发生了变化。过去的人工智能是编写规则,而现在的人工智能是向它提供数据并让它识别模式。新人工智能的问题是没有一个程序可以读取。你所能做的就是分析它编程的数据。因此,如果你用各种不同驾驶行为的数据创造了一辆自动驾驶汽车,而出于某种原因,你给它填上了杀人司机的数据,那么它就会继承这种行为。

我一直在思考同理心的问题,以及它对 AI 的重要性。但是,同理心需要与责任感相匹配。我的意思是,我可以为某人感到难过,但如果我不对解决这个问题负责,这真的有意义吗?那么问题来了:如果我们创造了人工智能,我们能不能在程序中加入责任感?一个类感知系统基本上是我们输入的已知行为的混合体。因此,如果这个系统做错了什么,那实际上是我们的错,因为我们给它编程了这种行为。

4: 真的有可能在不受自身偏见的影响下构建 AI 吗?

无论你是写算法还是只输入数据,数据集都会包括过去行为的偏见。如果写一个程序,它就包括工程师的偏见。当我们写程序时,我们会用 "如果 X,那么做 Y "这样的语句。这样写,更容易看到你在系统中编程的偏见。

我们可以从法律中也能看到这一点。法律是我们拥有的最接近社会编程语言的东西,而且正如我们所知,法律中有大量的偏见建立在其中。所有人为的东西都具有偏见。机器看起来像是在唤起纯粹的逻辑,但事实是我们制造了它们。这就是为什么我们必须小心的原因。随着机器的进化,它们更加依赖于从数据集中学习(而不是从硬编码的程序中学习),我们必须确保在给它们数据时考虑并主动纠正偏见。

5: 像机器一样思考真的能帮助人类解决当今最棘手的问题吗?

计算思维有四种风格,其中之一是分解。正如我在《如何说机器的语言》中所说,计算机有能力永远循环完成一个函数或任务而不会感到疲倦。此外,它们在执行过程中会记录详细的结果。

所以对于人类来说,这里的要点是将一个棘手的问题分解成更小的组件。有没有可以反复尝试的部分解决方案,每次迭代一点点,直到找到正确的解决方案?如果你模拟一次隔离和改变一个变量呢? 观察连锁反应有助于理清所有部分之间的关系。模拟计算思维对模拟生命系统大有帮助。它打开了一个充满可能性的宇宙。

 

 


立即登陆 Atlassian 中国官网

手机扫码{{currentOpt}}

点击切换登录
手机号码
验证码
打开微信扫一扫
使用二维码{{currentOpt}},更安全

扫码分享给好友

立即注册 Atlassian 中国官网

* 姓名
* 公司名称
* 职位
* 企业邮箱
* 手机号码
* 短信验证码
* 公司规模
在线咨询 联系我们

在线咨询

您好,欢迎使用 Atlassian 售前咨询,请选择所需咨询的问题类型: