人工智能和法律:人工智能系统可以犯罪吗?






是的,它可以。到目前为止,这次讨论的重点是所谓的侵权行为,即伤害人民或其财产的行为,受害者可以向民事法庭提起诉讼以要求赔偿。但社会也将某些行为指定为犯罪行为,即由于道德原因或因为它们对社会秩序或公共利益造成损害而被禁止的行为。例如,在加利福尼亚州吃狗和猫而不是鸡或鱼是犯罪行为,尽管所有这些通常都是作为宠物饲养的。37以可能造成环境破坏的方式在道路上行驶车辆也是一种犯罪行为。38显然,即使是无意的,自动驾驶汽车也可能造成环境破坏,这是一种犯罪行为。(请注意,某些行为既可以是侵权行为,也可以是犯罪行为,例如射击某人。)


一些犯罪,例如谋杀(而不是过失杀人)被认为更为严重,因为它们涉及道德违规。也就是说,演员应该知道他或她正在做的事情在道德上是错误的。法律假定犯罪者具有所谓的道德行为。道德行为需要两件事:行为者能够理解其行为的后果,并且他们可以选择行动。令人惊讶的是,你不必是人类就有道德代理。


 


许多人没有意识到,与经理,员工或股东不同的公司可能要对犯罪负责。例如,石油公司雪佛龙(Chevron)有一长串的刑事定罪说法,主要是为了故意污染,尽管其员工很少因这些行为被单独指控。39至少在某些情况下,公司本身被认为具有道德机构,因为该机构能够理解其行为的后果,并且可以选择行动(是否犯罪),尽管如此概念并非没有一些争议。40


计算机程序也可以成为道德代理人吗?它可以,因为它符合定义。没有理由你不能写一个知道它在做什么的程序,知道它是非法的(并且可能因此是不道德的),并且可以选择采取什么行动。没有什么需要道德代理人感受关于是非的任何事情要求只是它知道差异。例如,要对谋杀精神病患者负责,不必觉得杀人或悔恨是不对的事实上,他们可能不同意禁止谋杀他们只需要知道社会认为这是错误的。没有适当的编程,机器是天生的精神病患者,但他们不必那样做。完全有可能将机器编程为尊重道德理论并将其应用于事实模式,因此机器可以知道是非,并做出道德决策。实际上,这个称为计算伦理的探究领域旨在创造人为的道德行为者。这是一个特殊的案例,当人工智能系统越来越多地与人们互动时,我们将要面对一个更广泛的问题如何确保他们经常隐瞒人类礼貌的隐含,例如轮候上车或只带一份免费报纸。创建适当社交的计算机程序并尊重我们的是非观念可能是一项重大的技术挑战。称为计算伦理,旨在创造人为的道德代理人。这是一个特殊的案例,当人工智能系统越来越多地与人们互动时,我们将要面对一个更广泛的问题如何确保他们经常隐瞒人类礼貌的隐含,例如轮候上车或只带一份免费报纸。创建适当社交的计算机程序并尊重我们的是非观念可能是一项重大的技术挑战。称为计算伦理,旨在创造人为的道德代理人。这是一个特殊的案例,当人工智能系统越来越多地与人们互动时,我们将要面对一个更广泛的问题如何确保他们经常隐瞒人类礼貌的隐含,例如轮候上车或只带一份免费报纸。创建适当社交的计算机程序并尊重我们的是非观念可能是一项重大的技术挑战。


 







 





ETC注销ETC充值ETC客服ETC扣费查询


ETC发行合作

发表回复