监督学习的实际应用:监管遵守的控制敏感数据

随着所有媒体的关注,专注于当代 计算机愿景,会话AI的人工智能应用 知识图形,很容易忽视基本数据管理 主动器认知计算实际完善。

但是,如图所以 安装规定 对于个人可识别的信息(PII),数据隐私和消费者权利表示,更大的挑战可能是部署机器学习和AI知识库的能力,以确保监管遵守情况。

“在过去几年中,通过隐私和更改数据景观的规定,有与获取数据相关的成本,”承认 私人私人 CEO Balaji Ganesan。 “如何管理数据的各个方面是完全不同的,并且大多数由新规则驱动:GDPR,以及加州[消费者]隐私法。在世界范围内的每个国家都有形式的这些规定。“

因此,组织正在转向数据治理 编目,分析,发现和分类敏感的解决方案 有关解决这些新发现需求的规定的数据。监督 学习和AI的知识库(以人类规则的形式)发挥积分 支持这些工具的角色,所以组织可以遵守法规。

这些机器学习模型对于分类和标记敏感数据来说至关重要,因此组织可以限制他们与下游活动的访问,以履行治理政策。具体而言,它们基于一种标记的标记“来标记我们的数据”,“Ganesan透露。 “说这个文件有一个社会安全号码,或者此表有一些个人信息。我们可以使用这些标签来构建控件并运行它们。“

监督学习

一旦组织通过数据分析和数据发现(主要是自动的)辨别敏感数据,他们可以对数据目录,以实现所提到的控件Ganesan。将分析和数据发现阶段的调查结果映射到敏感数据的目录需要“规则和机器学习模型:监督学习”,“Ganesan表示。这些技术特别适用于分类或标记过程。例如,如果数据分析结果表明存在社会安全号码, 这些形式的ai “对此附加信心得分”,“甘肃提到。

该信息影响分类步骤,其中数据可以自动分类为敏感和编目。这个空间中的竞争选项不仅使用户能够实现自己的规则,而且还配备了从其他客户看到的示例数据的预构建模型和我们自己的培训数据,因此我们可以丰富这些模型,“Ganesan评论。

人类在循环中

在这种关键数据治理用例中雇用监督学习模型的首要优点不仅仅是分类的自动化(哪些规则可以在某些情况下提供有关信心评分。这是真的 对于大多数机器学习部署,基本价值主张是这些模型随着时间的推移而发展的能力,提高他们的结果 - 以及他们的信心。其中一些学习源于循环中的人类的长期概念,当“没有足够的上下文信息可以准确地预测[分类]时,”甘肃坦说。

在这种情况下,咨询了数据管制或主题专家,以提供详细的答案,以告知模型的学习能力。随后,该反馈是“建立在学习模型中,因此迭代越多,模型从中汲取的越多,”Ganesan指出。 “下次我们看到数据时,我们已经从前一个输入了输入,所以我们可以更准确地预测它。”但是,如果模型生成足够高的置信度分数,它们可以自动化此信息的分类以准备必要的控制。循环中的人类的宗旨使模型能够在时间内产生这种充满信心,这对于遵守企业规模的数据隐私法规,这是非常有用的。

访问控制实现

数据分析,数据发现和监督学习辅助分类和标记对于编目敏感数据是必不可少的。一旦这些数据根据数据治理和法规遵从性的企业定义编目,组织就可以在限制对这些数据的访问权限的定义策略上采取行动。有许多形式的访问控制,包括混淆方法,其中数据被授予或加密,从而保留了敏感数据的隐私。例如,这些方法是有效的,因为它们使企业用户能够使用必要的权限来访问它们进行分析。商业智能报告确定最有价值的客户不一定要求用户了解他们的PII。

最重要的是,当有必要凭证的用户需要访问此类数据时,可以撤消上述混淆以提供这些关键的细节。 “假设您有一个需要访问实际信息的法律团队,或者他们需要欺诈检测或反洗钱或其他目的,”Ganesan Posited。在这种情况下,组织可以“动态地反转某些用户的数据,”Ganesan说。 “通常,一小部分用户将需要访问实际数据。大多数用户将使用匿名数据。“                                                                                                                           

贡献者

Jelani Harper.是一种提供信息技术市场的一位编辑顾问。他专注于专注于语义技术,数据治理和分析的数据驱动应用。

贡献者表达的意见是他们自己的意见。

关于Jelani Harper.

Jelani Harper.是一种提供信息技术市场的一位编辑顾问。他专注于专注于语义技术,数据治理和分析的数据驱动应用。

查看Jelani Harper的所有帖子→