人工智能的未来影响:我们如何最大限度地降低未来风险?






我们今天可以采取的一个实际步骤是为智能系统的开发和测试建立专业和工程标准。应该要求AI研究人员


 


指定其创作预期运行的操作范围,并在超出这些参数时采用减轻损害的方法。换句话说,具有足够能力和自主性的人工智能系统应该自我监控他们的环境,以确定他们是否在设计师所设想的范围内,或者他们是否接收到无法解释或相互矛盾的感官信息。在这些情况下,他们应该结合特定领域的安全模式,以尽量减少潜在的后果,包括关闭(尽管这并不总是最安全的事情),并通知适当的监管人员或系统。作为一个实际的例子,想象一下自动割草机,它被指示在特定的矩形空间内切割草。


相关的安全机制可能是政府机构对系统的许可。机器人律师可能必须通过律师考试,自动驾驶汽车应通过驾驶考试,自动理发师可能必须符合宇宙学许可证的标准,等等。当然,这些测试对于机器和人类来说可能是不同的,但是执行一套商定的标准并识别允许从事被禁活动的那些标准将大大有助于消除流氓或有缺陷的程序和设备。它还将提供一种撤销其运作权限的标准机制。


甚至在今天,还需要开发可计算的易处理的道德理论和原则,这些理论和原则可以在遇到异常情况时作为后备,或作为减轻不良行为的额外方法。我们可能会设计一个不会让行人跑过来的机器人,但是当有人决定跳上屋顶时,你的自动驾驶汽车应该做些什么这是制造商不太可能预料到的情况?一种在任何情况下都不会危害人类的简单原则,它可能是合理的


 


如果它继续旅行就会发生推断,可能有助于它做出正确的事情。这并不意味着机器必须真正具有道德性; 他们只需设计成以道德上可接受的方式行事。


这种行为要求超越了纯粹的道德范畴,仅仅是社会的。我们希望机器人在地铁上放弃他们的座位给人类骑手,等待轮到他们,在其他人需要时分享有限的资源,并且通常会认识到他们行动的社会背景。在我们释放下一代人工智能系统之前,我们必须确保他们尊重我们的风俗习惯,因为我们需要文明的机器人来应对人类世界。


 







 





ETC注销ETC充值ETC客服ETC扣费查询


ETC发行合作

发表回复