人工智能与信任

信任对社会至关重要。我们相信手机会准时叫醒我们,相信我们吃的食物是安全的,相信路上的其他司机不会撞我们。我们每天都要相信成千上万次。没有它,社会就无法运转。我们甚至都不去想它,就足以说明这一切运作得有多好。

信任是一个复杂的概念,这个词有很多含义。当我们说信任朋友时,与其说是信任他们的具体行动,不如说是信任他们这个人。我们相信他们的意图,并且知道这些意图会影响他们的行动。这就是 “人际信任”。

还有一种不那么亲密、不那么个人化的信任。我们可能不了解某个人的个人情况,但我们可以信任他们的行为–不是因为他们与生俱来的道德,而是因为他们生活的法律,以及约束他们行为的安全技术。这关系到可靠性和可预测性。这就是 “社会信任”。它比人际间的信任更有规模,使社会规模更大、更复杂。它使陌生人之间的合作成为可能。

规模至关重要。在当今社会,我们经常信任或不信任政府、公司、组织和团体。我不认识驾驶我的飞机的飞行员,但我相信航空公司会按时把训练有素、休息良好的飞行员送进驾驶舱。我不相信餐馆的厨师和服务员,但我相信他们工作时遵守的卫生规范。

由于社会变得如此庞大和复杂,我们已经用加强可靠性和可预测性的安全机制–社会信任,取代了许多人际信任的仪式和行为。但是,由于我们对两者使用同一个词,因此混淆了它们。我们经常这样做,尤其是对企业。

我们可能会把它们当作朋友,但它们实际上是服务。公司不可能有这种关系。

我们即将在人工智能方面犯下同样的错误。我们会把它们当成我们的朋友,但其实它们并不是。近期的人工智能将由企业控制,企业将利用它们来实现利润最大化的目标。充其量,它们只是有用的服务。更有可能的是,它们会监视我们并试图操纵我们

这就是互联网的运作方式。公司在我们使用其产品和服务时对我们进行监视。数据掮客从小规模公司那里购买监控数据,建立我们的档案。然后,他们将这些信息卖回给这些公司和其他公司,这些公司利用这些信息操纵我们的行为,以满足他们的利益。

我们使用互联网服务,就好像它们是我们的代理人,代表我们工作。事实上,它们是双重代理,也在暗中为其公司所有者工作。

人工智能也不例外。而且结果会更糟,原因有二。

首先,人工智能系统将更具亲和力。我们将使用自然语言与它们交流,因此我们会自然而然地将人类的特征赋予它们–这将使这些双面间谍更容易开展工作。你的聊天机器人推荐某家航空公司是因为它最划算,还是因为人工智能公司得到了回扣?当你让聊天机器人解释某个政治问题时,它是偏向于公司利益的解释,还是偏向于某个政党付钱让它宣传的解释?

其次,这些人工智能将更加贴心。生成式人工智能的承诺之一是成为个人数字助理,在他人面前充当你的代言人,在你身边充当你的管家。你会希望它全天候与你在一起,从你所做的一切中学习,这样它就能最有效地代表你工作。它会注意到你的情绪,知道该给你什么建议。它会预测你的需求,并努力满足它们。它将成为你的治疗师、生活教练和人际关系顾问。你可以用自然语言与它交流,它也会做出相应的回应。如果它是一个机器人,那么它将看起来像人,或者至少像动物。它将与你的整个存在互动,就像其他人一样。它会使用你的举止和文化参照物。它将拥有令人信服的声音和自信的语调。它的个性将为你进行优化。你会默认它是你的朋友。你会忘记人工智能背后的公司有多强大,因为你会专注于你认为的人工智能。

这就是我们需要值得信赖的人工智能的原因:人工智能的行为、局限性和训练都是可以理解的。人工智能的偏见是可以理解和纠正的。目标被理解的人工智能。不会将你的信任偷偷出卖给别人的人工智能。

市场本身不会提供这些,就像它不会提供让你安心登机、在餐馆用餐或购买药品的健康和安全规范一样。

我们需要人工智能透明法。我们需要规范人工智能和机器人安全的法律。我们需要强制执行人工智能可信度的法律。这意味着要有能力识别这些法律何时被违反,并有足够大的惩罚力度来激励可信赖的行为。这些法律应该限制的不是人工智能本身,而是制造和控制人工智能的人和公司。否则,这些法规就会犯我一直在谈论的错误。

由于人工智能个人助理的私密性,它们需要的不仅仅是监管来确保可信度。这些助手将是值得信赖的代理,需要有特别的权限获取我们的信息才能完成工作,就像医生、律师或会计师一样。与这些专业人士一样,它–或者说,控制它的公司–应该承担起法律责任,以我们的最大利益为出发点:信托责任。

我们需要公共人工智能模型。这是由公众为公众建立的系统。这意味着开放性和透明度,以及对公众需求的响应。任何人都可以在此基础上运行和构建–为人工智能创新的自由市场奠定基础。这将是对企业拥有的人工智能的一种制衡。

我们永远无法让人工智能成为我们的朋友。但我们可以让它们成为值得信赖的服务:代理人,而不是双面间谍。

这样,我们才能建立社会繁荣所需的社会信任。

作者:先驱商业

英文原文

发表评论