也是最后一点,我们的人类尊严,即我们作为人所享有的平等道德价值,如今也面临着紧迫的挑战。 人类历史上的每一次技术革命都创造了熊彼特式的“创造性破坏”,但随着经济从当前的生产流程、手段和方法向更加自动化和基于人工智能的生产方式转型,不受监管的自动化和人工智能——或者像今天这样在巨大的监管真空中蓬勃发展——所带来的后果将不仅仅是造成失业。自动化和人工智能都在改变现实:它们不仅会影响供给侧的生产,还会影响需求侧的消费。它们将——如果它们还没有——改变市场上衡量“价值”的实际标准,从通常的不动产和动产财富衡量标准,转变为更具流动性、更难追踪、更易操纵、更不稳定、更不稳定的数据作为新的价值衡量标准。那些在自动化和人工智能领域拥有先发优势的人,不仅能够积累财富和影响力,其规模在某些情况下甚至超过小国的GDP ,而且他们自己也能够通过监管套利来巩固当今现有的不平等,同时积极塑造未来的监管格局。
对人类尊严最具威胁的
恰恰涉及平等、道德决策和人的价值问题。如果自动化和人工智能可以被自由地用来工具化人,这可能会对尊重、保护和实现人权以及确保对任何侵犯此类权利的行为进行补救造成严重问题。人们质疑各国是否仍然能够确保其人口的人权得到尊重、保护和实现,以及任何侵犯人权的行为是否得到纠正,例如在自动化和人工智能产生的外部性方面,例如:1)由于自动化不可避免地造成的劳动力流失,导致个别工人的技能培训、教育和专业能力的贬值和过时;2)预测算法不仅在提供公共服务方面,而且在刑事司法、执法和司法裁决等政 WhatsApp 号码数据 府职能方面,都会例行公事地取代人类的判断、选择和代理; 3)人类日益疏远、歧视、客体化,无法建立真正的联系、社交、表达和关系,取而代之的是虚拟平台、构建的现实、精心策划的体验和人造“社区”或社会团体,这些最终都成为付费广告和市场影响者随时可用的营销中心和焦点小组。更重要的是,认知人工智能(结合了“包括统计分析、建模和机器学习在内的数值数据分析技术,以及符号人工智能的可解释性(和透明度)”)应该让我们所有人停下来重新思考为什么、在什么情况下以及在什么条件下我们会委托他人做出决策。
虽然人们可以很容易地争辩说
将认知人工智能用于“商业”目的应该不是问题,但这并没有解决企业面临的不可避免的道德、伦理和人权挑战。我们真的能轻易地区分哪些决定留给认知人工智能,哪些决定留给我们,而随着对人类尊严的理解在自动化和人工智能驱动的“生活 3.0”中不断发展,我们保留哪些决定吗?
当然,这并不是说我们应该让时光倒流,或者提倡 在我的个人博客上阅读更多文章 某种形式的新卢德主义。无论好坏,第四次工业革命中的自动化和人工智能已经到来,并且它们在后现代人类生活中无处不在。无人否认它们在经济、技术、科学、医学和科技方面的进步,以及它们对人类生存和事业各个方面带来的益处。人工智能本身有无数种定义,自1956 年约翰·麦卡锡首次提出这一领域以来,这一定义已不仅限于“计算机中智能行为的模拟”或“数字计算机或计算机控制执行通常与智能生物相关的任务的能力”,还包括机器学习(例如“研究用于自动解决难以使用传 WhatsApp 号码 统编程方法编程的复杂问题的算法和技术的计算机科学领域”)以及深度学习(例如计算机“从经验中学习并从概念层次结构中理解世界,每个概念都通过其与更简单概再次被定义为我们 念的关系来定义……这种方法避免了人类操作员正式指定计算机所需的所有知识。