·发布于 Towards Data Science ·5 分钟阅读·2024 年 10 月 24 日
--
图片来源:Una Laurencic
人工智能伦理与治理已成为一个喧嚣的领域。
根据最新统计,OECD 追踪器显示,截至 2024 年 9 月,已有超过 1,800 个国家级文件涉及有关倡议、政策、框架和战略(而且似乎每一项都有人在发表评论)。
然而,正如 Mittelstadt (2021) 简明扼要地指出的,只有原则本身无法保证伦理人工智能的实现。
尽管有大量高层次的指导方针,政策与现实世界的实施之间依然存在明显的差距。那么,为什么会出现这种情况,数据科学和人工智能领域的领导者应如何思考这一问题呢?
在本系列文章中,我旨在通过将这一差距分解为三个组成部分,并结合研究和实际经验,提出在大规模实施人工智能伦理和治理能力时行之有效的策略和结构,以推进组织内人工智能伦理与治理的成熟度。
我所讨论的第一个差距是解释鸿沟,它来源于将模糊语言表达的原则(例如“以人为本”等)应用到实际中的挑战……