问及其使用和处理具有很大的相关性。这就是为什么近年来在各个领域都在讨论是否有必要考虑发展符合伦理的人工智能,以防万一。13. 然而,这种观点不足以解决收集、使用和处理人群个人和敏感数据的问题。还需要在分析中添加一种人权方法,该方法基于世界上大部分国家已达成的协议,并允许以尊重人民基本权利的标准为基础,以便制定和实施人工智能技术以共同利
益为中心目标。 与人工智能系统相关的最大挑战之一是减少偏差,无论它们是用于训练算法的数据集的产物(数据偏差)还是算法本身的设计,这可能导致有 购买企业电子邮件地址列表 偏差的结果(算法偏见)。这一点在任何使用基于自动数据分析的系统的领域中都会重复出现,这在健康方面变得更加相关,因为基于有偏见的数据的诊断会对人群产生非常不利的影响。 为了减少这些偏见,设计此类
解决方案的人认为有必要收集更多数量和种类的数据;主要是人口统计数据,例如年龄、生理性别和性别、种族和民族以及居住的地理区域。从这个意义上说,重要的是要注意,虽然不包括所有者的姓名和姓氏,但这些数据与健康数据相结合,即使经过数据分离、匿名化或假名化过程,也可以识别它们—— ,这除了侵犯个人的隐私和亲密之外,还会产生歧视性影响。与用于这