但更糟糕的是没有权利的处理,因为数据伦理一直是有关个人数据处理的保护框架的价值论基础。因此,数据伦理清洗的危险影响1它以其神奇的现实主义,使那些在不遵守情况下出现真正权利、义务和制裁的规范性命令成为可选项。 算法依赖是一种操作现实。公共和私人组织在我们生活的所有领域中,在我们所有的角色中都相互依赖算法:无论是作为公民、工人还是消费者;我们都受到算法分析的影响,算法分析具有多种目的、细微差别和影响,以及利益攸关。 这就是为什么有必要对这种算法依赖建立一个特定的法律限制:阻止在数据处理和处理中滥用数字做法的扩散、膨胀和扩展,这将最终消灭我们的隐私权、保护和安全权我们的数据。 个人的信息自决,也称为计算机自由,是意志自主与信息的融合,
并被定义为个人管理涉及他的数据的全部能力,需要并推动一场革命。信息性自决是知情同意的先决条件,并且是在静态和不变的处理环境中建立的法律概念。 如今,数据处理是动态的、可变的、永久可变的。用算法处理数据就像一个活的有机体,它会根据运 电子邮件列表 行环境的条件呼吸和变化。 在这种永久的可变性中,需要相关的信息自决,设定一个限制,从而最大限度地减少处理的影响,并确保尊重和普及人权,保护消费者和数字消费者(电子消费者)的权利以及保护他们的数据,以及减少和遏制因不负责任的处理而造成的损害。
动态信息自决作为对算法依赖的法律保护限制被提出作为消费者数字身份的最佳保护措施。另一方面,在提议的上下文中,有必要根据新处理上下文产生的保护需求重新制定隐私。 人工智能、偏见和算法歧视 人工智能作为一个“新”科学领域已经伴随我们数十年。它的行为似乎像一种周期性的、爆炸性的僵尸,按照数据处理技术的流行模式重新浮出水面,直到它屈服于对失败的承诺的失望,退回到沉默和遗忘中,然后再次浮出水面。当它找到新的受害者时谁,在他们对过去的新鲜和背景遗忘中,给它新的空间和更新的空间。