德国技术组织VDE和Bertelsmann Stiftung的一项新研究表明,人工智能的伦理原则是如何付诸实践的。这项研究“从原则到实践——人工智能伦理实施的跨学科框架”,提出了一种标准化方法来帮助消费者识别人工智能产品/服务的信任程度。
虽然目前正在为人工智能制定许多道德指南,但能够实际实施的解决方案却寥寥无几。最大的障碍之一是对“透明度”和“平等”等原则的模糊和多种解读。VDE-Bertelsmann的研究旨在填补这一空白。研究提出了一种基于VCIO模型、人工智能伦理标签和风险分类三种工具相结合的方法,这是一种在人工智能中具体而可测量地实施一般伦理原则的方法。
所谓的VCIO模型(价值、准则、指标、可观察性)将价值分解为准则、指标和最终可测量的观测。VCIO模型可供政策制定者、规制机构和监管机构用于人工智能系统需求具体化以及相关实施。其次,本研究中所提出的人工智能系统的伦理标签,使公司能够清楚、统一地传达其产品的伦理属性。该标签以成功的电器能源标签为基础,允许消费者和公司对市场上的产品进行比较。
最后,模型的第三个元素,风险矩阵,旨在应用于人工智能应用案例的分类。哪些人工智能系统属性被认为是“合乎道德的”取决于具体的应用案例。因此,本研究所提出的风险矩阵提供了一种应用环境分类的方法。考虑到潜在损害的强度和受影响人员的依赖性或他们规避人工智能决策或选择其他系统的能力,风险矩阵由0、1、2或3级分类组成。虽然最低的0级不需要有进一步的道德考量,但1至3级的人工智能系统只有在被授予人工智能道德标签的情况下才能使用。
这项研究“从原则到实践——一个操作人工智能伦理的跨学科框架”可以从www.vde.com/presse 或者www.ai-ethics-impact.org网站免费下载,想获悉更多的国内外标准信息,请访问标准2025网站(<http://www.bz2025.com>)。