微软创始人比尔·盖茨最近表示,设计用于在职场中取代人类的机器人应该纳税。虽然盖茨的说法得到的评论褒贬不一,但却煽动起了一种错误的观点,即人类需要担心机器人抢走他们的工作。
美国财政部长史蒂芬·姆努钦认为,虽然现在执行机器人税为时尚早,但在未来50至100年内,这或许将成为现实。在开始谈论人工智能(AI)资本化和向机器人征税之前,我们首先需要调查、分析和解决有哪些严重的问题,会妨碍机器人有效服务于普通消费者和应用于职场。
在未来五年内,机器人能够执行的任务,将对一些传统的人类工种产生不可逆的重要影响。但首先,负责各种人工智能设计与编程的人员,需要确保他们设计的线路能够保证机器人更多带来的是好处,而不是伤害。
如果部门或办公室选择使用机器人(使人类受益)处理行政类、涉及大量数据的任务,那么保留管理等人类元素,对于它们的成功会有多大的重要性,我们仍有待观察。但可以肯定的是,在完全自动化的环境中,机器人做出的广泛决策与行为,应该符合参与工作相关接触的人类的最佳利益,而这需要机器人具备更高的人性水平。简而言之,人类必须为人工智能和机器人制定劳工标准和培训程序,以填补机器人认知中的道德空白。
使人工智能和机器人可以自主决策,是技术人员和设计师们面临的最棘手的问题之一。用正确的数据培训机器人,使它们可以进行正确的计算和决策,这是工程师的职业责任。在合规与治理领域尤其可能出现复杂的挑战。
人类需要接受合规培训,以了解绩效标准和人事部门的期望。同样,我们需要在一个互补的合规框架内设计机器人和人工智能,以管理它们在职场中与人类的交互。这意味着制定通用的政策,涵盖人类劳动力的平等机会与多元化等重要方面,强制执行反腐败法律,控制各种形式的欺诈活动。最终,我们需要以希望人类达到的职业标准为蓝本,制定机器人行为规范。与此同时,设计师们还需要为机器人留出空间,为自己的错误承担责任,从中总结经验教训并最终实现自我纠正。
人工智能和机器人都需要接受培训,学会如何在不计其数的职场状况下做出正确的决定。培训的一种方式是创建一个基于奖励的学习系统,激励机器人和人工智能实现高生产率。理想情况下,这种由工程师精心创造的系统,将使机器人从收到第一次奖励开始,“想要”超出预期。
按照当前的“强化学习”系统,一个人工智能或机器人根据其特定行动所产生的结果,会收到正面或负面的反馈。只要我们能够为个别机器人设计奖励,就能将这种反馈方法推而广之,确保综合的机器人网络能够高效率运行,根据不同反馈做出调整,并基本保持机器人的良好行为。在实践中,设计奖励时不仅要根据人工智能或机器人为实现一个结果所采取的行为,还应该考虑人工智能与机器人实现特定结果的做法是否符合人类的价值观。
但在考虑对机器人和人工智能征税之前,我们必须正确了解自我学习技术的基本知识,制定出综合的道德标准,并长期坚持执行。机器人制造企业首先需要保证,他们创造的人工智能通过不断学习和完善,最终能够符合人类的道德伦理,具备适应能力,可以对自己的行为负责,之后才能让它们在一些传统工作领域取代人类。我们的责任是使人工智能可以显著改进人类从事的工作。否则,我们只是在重复错误,用目的不明确的机器人取代了人类的工作。
登录后发表你的伟大言论!
立即登录 注册