会刊精选
人工智能的伦理问题       
2019-07-24

人工智能是大势所趋,但是伦理和智能集成将是一个门槛。人工智能的能力可能会达不到预期,指令的发出未经大脑也不告知心脏,Kablamo创始人兼联合首席执行官表示。

作者:Allan Waddell   Kablamo创始人兼联合首席执行官

还记得艾萨克·阿西莫夫(Isaac Asimov)写的机器人三定律吗?
1.    机器人不可伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
2.    机器人必须服从人给予的命令,当该命令与第一定律冲突时例外。
3.    机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
早在1942年,我们就在苦苦思考智能机器人的伦理问题。我们正处在硅基文明与人类认知的交叉点。更为重要的是我们更新了阿西莫夫的定律,以确保人类是人工智能的受益者,而非受害者:这一概念已不再属于科幻小说范畴。
几十年前实现大规模自动化时,我们第一次在实际情况中接触到这些问题。辛勤劳作的人们担心成本更低、效率更高的机器人会抢走他们的工作。企业更关注的是短期利润,而非长期失业对数百万工人需再培训,重新进入劳动力市场的影响。这一伦理困境至今尚未解决。而随着人工智能的出现,这一情况很可能会恶化。现在我们能够制造独立思考的机器,就必须考虑一些连阿西莫夫都未能想到的伦理问题。在加入人工智能的潮流之前,考虑一下以下几点:
正确培训
违背人类伦理的人工智能是危险的。人类的智慧带有情感,这不是漏洞,而是特性。我们不希望缺乏人类情感的立法者通过制定法律来影响我们。我们也不想看到没有情感的人工智能机器。
人类情感的养成是通过教育的形式实现的。从婴儿被抱在母亲怀里起就开始了教育。人工智能其实也是如此。

“我们正处在硅基文明与人类认知的交叉点”

人工智能伦理始于伦理培训。人工智能不只是编程,它像人一样接受训练,像人一样学习。要拥有正确的价值观,必须以正确的方式进行培训,否则不可避免地会出现伦理问题。事实上它们本身就有伦理问题。
最近,用于执法的面部识别系统受到了强烈批评,因为它根据面部照片易于将有色人种误认为罪犯。这就需要培训。如果人工智能系统主要接受欧美白人面孔的识别训练,这对其他种族是很不公平的。
作为新兴行业,不能满足于现成、短期的解决方案。你必须像审查员工一样审查人工智能解决方案,确保它们受到正确的伦理培训。
过犹不及
每个企业都想要最好的、最高效、最优的生产流程,但有时过犹不及。客户服务就是其中一个例子。
很有可能人工智能解决方案,比如Google助理在预约、解答问题和进行电话推销时做得更好。即使那个时候,Al可能仍然不是正确的解决方案。
简单来说,人与人之间需要对话。而不是有压力时对机器倾诉。如果有人需要客服服务,表示他们有问题。他们承受着更大的压力。
他们需要与人类接触,问题得到解决,被聆听。人工智能目前还无法做到这点,也不该做这样的工作。无人呼叫中心是有伦理问题的。
部署人工智能时必须考虑背后的伦理道德意义。客户行为有一个特点,那就是和他们打交道时应尽量亲和、亲切,而不是采用什么高端机制。
总结
人工智能是大势所趋,可能您已身处其中但全然未知。显然智能化的应用使得效率更高、更省钱,甚至可以帮您避免可能会使企业破产的重大失误。
因此,我们很容易依赖人工智能,将其作为企业的管理者。但是,我们要牢记企业所有的业务都是在人与人之间展开的,只是可以利用人工智能把它做得更好。因此不难做出总结:人才是决定一切的因素,而非人工智能。
原载自澳大利亚公共会计师协会《公共会计师》(Public accountant201904-05月刊,第60-61页,《公共会计师》数字资讯中心www.pubacct.org.au

联系我们 网站地图
关注IPA官方微信
在线咨询