我们非常重视您的个人隐私,当您访问我们的网站时,请同意使用的所有cookie。有关个人数据处理的更多信息可访问《使用条款》

你的人工智能准备好接受监管了吗?

2023.07.13

现在,围绕人工智能,(AI)世界上许多地区都开始实施类似的法律法规,行业对GDPR的经验可以告诉企业如何准备应对其人工智能不可避免的监管审查。

公司应该面对现实

GDPR的一些部分引起了企业的恐慌,因为当时的新规定要求企业提供准确、可理解的解释,解释算法分析(特别是机器学习模型)是如何做出决策的。虽然很少有消费者在这一领域真正行使他们的权利,但该条例赋予了个人要求和接受自动化决策解释的权利。

然而,尽管GDPR已经问世六年了,但它还没有产生一个关于机器学习可解释性的行业标准。因为我们仍在寻找明确的理解和控制分析标准,从更广泛的角度来看,最终的人工智能监管道路也可能是一条崎岖不平的道路。

事实上,政府监督人工智能技术的发展和使用是不可避免的。主要原因之一是人工智能的自我调节风险很高。

2021年的一项研究表明,在人工智能领域,高管们对公司的责任没有达成共识。例如,在参与研究的公司中,只有22%有内部道德委员会。一些高管认为,人工智能应用程序不需要符合道德规范,它们只需要分为高风险或低风险。另一些人感到苦恼,因为他们不确定什么是“足够公平”的工具,也不确定什么是偏见标准。

风险暴露(最终与政府监管发生冲突)对于促进参与非常重要,可以将人工智能提升到董事会层面。如果首席风险官(CRO)如果他们不跟踪人工智能的风险,他们应该跟踪。更有针对性的是,CRO应倡导企业人工智能综合治理框架,定义道德人工智能标准和模型开发程序,以他们能够支持的方式经得起监督和审查。

虽然GDPR可能不会引起个人消费者对分析决策内部工作模式的担忧,但就连专家也认为,人工智能的强劲势头绝对不是一个好兆头。一份2021年皮尤研究报告指出:

大量(专家)受访者认为,地缘政治和经济竞争是人工智能开发者的主要驱动力,而道德问题是次要因素。一些专家说,人工智能工具的创造者在团队中工作,他们几乎没有设计解决伦理问题的动机。

为了避免诉讼、消费者不信任、权利保护集团反弹和最终更广泛的政府监管,企业需要成长,有自己的方式设计人工智能系统,并面临和管理人工智能的风险。

很多人都在努力变得道德,但很少有人支持用具体、可衡量、清晰的术语来定义“道德人工智能”。如果企业集体不回应GDPR的可解释部分,表明组织将如何处理新的人工智能法规,那么他们将很难理解如何应用新法规(以及哪些部分),如何衡量合规性,以及通过或失败的门槛。这种解释、衡量和门槛的混乱会导致更广泛的混乱。

我们需要人工智能的道路规则

任何人工智能法规要想成功,都需要像高速公路系统一样有速度限制,违规行为可以客观衡量和处罚。因此,由于企业和行业似乎无法就如何解释和分析决策或人工智能模型达成协议,需要引进专家,赋予他们做出困难决策的权利:定义可接受的具体工具和算法,规范行业通过/失败指标,而不是简单的“自我报告”标准和大量关于如何满足这些标准的混乱行动。

这样,我们就可以客观地衡量人工智能是如何发展的,它的功能是什么,它的工作是好是错,还是坏?

一些外国行业在分析模型、分析决策、违规和处罚方面处于领先地位。例如,抵押贷款行业就是一个很好的例子。信贷决策遵循消除偏见和歧视的指导方针。不遵守规则(使用有偏见的数据、决策标准或模型)的银行将面临监管机构的严厉处罚,最终失去消费者的信任和业务。

法律将促进人工智能的伦理

与GDPR和相关法律法规预期的个人投诉相比,人工智能倡导群体的崛起具有更大的影响力。这些团体正在促进人们更多地认识到人工智能对消费者生活的影响,当然,也可能因偏见人工智能而承担法律责任。最重要的是,风险暴露往往会促使企业解决人工智能的伦理和偏见问题,特别是当使用人工智能的创新企业是集体诉讼的目标时。

广州鲁邦通物联网科技股份有限公司成立于2010年,致力为行业客户提供软硬件结合的5G+工业互联网平台解决方案,通过设备物联、机器人乘梯、设备售后管理系统、电梯物联网等产品和服务,助力电梯及特种设备、医疗设备、机器人、环保设备、环卫设备、电力设备和水务设备等工业客户进行后市场服务的数字化转型,降本增效,开启利润增长的第二曲线。

准备好让您的设备接入数字世界了么?

鲁邦通团队特别希望与您交流,分享给您我们是如何帮助企业构建数字化的商业模式