我可以起诉一个机器人吗?

想象一下,您在新的完全自主车内,驱使您下次商务会议。在其中一个十字路口,车辆未能“看到”红灯,并通过传入的流量驱动,并崩溃到校车中。谁应该责备?汽车当然:自治实体未能尊重流量规则。嗯......真的吗?

什么 legal personality for Robots?

这些天人工智能的主题正在得到很多炒作。由于这种兴趣水平,监管机构开始询问有关AI的重要问题,并试图定义周围的概念。还记得gdpr吗?嗯,这是欧盟开始调节对私人数据的访问,原料到任何(深)学习AI技术的第一步。

起诉一个机器人

技术?为什么你称之为AI技术?

智能算法并不是20世纪50年代首次定义的新功能。通过哲学辩论瘫痪,并在书籍和电影中描绘为未来的完美暴君,AI技术更像是一个研究主题和技术利基:专家系统用于医学,例如,有助于诊断。

但为了使这些算法工作,他们需要大量的计算能力和培训材料。您可以将其与学习DoorkNob的孩子进行比较。它们已经拥有了可用的计算能力(大脑),但您仍然必须告诉他们不同的门把手,即使它们具有不同的形状,颜色,或者在门上不同地定位也是不同的基本功能。甚至那么,当面对一个模特时,他们从未见过(例如紧急出口门上的水平杆),它们仍将犹豫使用它。

因此,随着近年来的计算能力在很大程度上获得,随着大数据的出现,AI技术开始展示他们做出低级工作的潜力,以优化某些人的任务。

AI.的定义?

不是许多人,因为没有一个“ai”但是多种技术。为了简化,科学家们谈论两个称为弱ai和强壮的主要概念。

弱ai重新创建和放大人类认知能力。尝试执行具有最大性能和自主的预定义任务时,这是有帮助的。一个简单的应用程序是邮件排序,其中机器能够自主读取地址,并且使用专用硬件,能够按目标排序包裹。

其他应用基于学习技术,包括视觉或声音侦察系统。当您使用Siri,Echo或Shazam时,您将其视为理所当然,但您应该知道它们是学习两个人之间的聊天或者乐曲的声音之间的聊天的结果。

另一方面,强壮的ai有一个人工 良心, 具有 情绪 也可以采取 倡议 没有人为干预的任务:机器自己思考。用史蒂夫·沃兹尼亚克的话说,如果机器可以在平均的美国家里,弄清楚如何煮咖啡: 找到咖啡机,找到咖啡,加水,找个杯子,然后通过按下正确的按钮煮咖啡,然后可以被认为是智能化的。

这仍然是科幻小说的领域,就像我,机器人或西威尔德一样,虽然迷人,仍然是果实 对真正的创造性作家的想象力。

我可以起诉一个机器人吗?甚至是我的自治车?

好吧,不是实际上!

欧洲议会去年发布了一项决议 机器人的民法规则 将欧洲委员会推荐“为机器人创造特定的法律地位”。这意味着创造了“电子人士 负责造成良好的损害,他们可能会导致机器人自主决策或以其他方式独立地与第三方互动的情况。“

这促使AI研究人员,法律和道德专家以及许多其他民间社会领导人的反应,他们说监管机构不应过度评估即使是最先进的机器人的实际能力。在A. 向欧盟委员会公开致函他们正在敦促政治家不要基于“对不可预测性和自我学习能力的肤浅的理解以及由科幻小说扭曲的机器人感知以及最近的耸人听闻的新闻公告”的“肤浅的理解”和机器人感知。“他们正在提醒立法者,目前的AI技术都被定义为 弱ai..

即使今天“AI”可以创造 艺术品,这种创建过程仍然需要人类使用AI作为创建某些东西的工具的意图和干预。通过将弱ai定义与艺术的共同定义相结合,一些文章调用ai创作实际上是通过使用新技术进行的人类创作(另一个伟大的技术 这里的例子)。但在未来的文章中更多。

回到我们的主题。所以在AI故障的情况下,你应该责怪谁?与任何技术一样,存在故障和误操作。现今AI系统有一个制造者和处理程序。更像是您和您正在阅读这篇文章的设备。如果显示器停止工作,即使您正确使用该设备,那么您可以联系制造商并要求维修,因为它是一个故障,这是他们的错。但是,如果你在夏威夷徒步旅行的同时让它落在一个热的熔岩游泳池,然后展示停止工作,很好,对不起,这是你错误地说出它的错。希望你可以从存储卡中取回熔岩selfie ......

什么 to watch for next?

由于近期AI的事务,监管机构将继续遵循这一主题 故障 或者 滥用,他们肯定会为未来的研究和用法创造一个框架。

对于像你这样的人和我,即使在一个“弱AI”世界中,我们仍然必须在这个话题上教育自己,并注意那些试图使用AI技术的人 影响我们的决定.


相关文章:

  1. 5 AI艺术家及其创造性的工作
  2. AI文档工作流程自动化,以实现更好的业务和社会

贡献者

产品经理@ dassaultsystèmes

贡献者表达的意见是他们自己的意见。

关于Claudiu Balan.

产品经理@ dassaultsystèmes

查看Claudiu Balan的所有帖子→