欧盟AI法案刚刚通过了欧洲议会。您可能会认为我不在欧盟中,但是相信我,这对世界各地的科学家和个人数据来说比您想象的要重要。 AI欧盟法案是调整和管理欧盟某些机器学习模型或影响欧盟公民使用某些机器学习模型的主要举措,它包含一些严格的规则和严重的违法行为。

该法律有很多风险讨论,这意味着欧盟公民的健康,安全和基本权利的风险。这不仅是一种AI启示录理论的风险,而且还冒着人们的日常生活在某种程度上变得更糟,因为您正在构建的模型或您正在销售的产品。如果您今天熟悉有关AI伦理的许多辩论,那么这听起来很熟悉。对于目前的产品和公司来说,区分和侵犯了所有人的权利,以及对每个人的健康和安全有害的权利,这是严重的问题,这项法律是保护人们的第一个欧盟努力。

确定谁

读者经常知道,我总是希望某人被明确定义,而且当它太模糊时我会感到不舒服。在这种情况下,法律违反了以下方式

旨在使用不同级别自治操作的基于机器的系统可以在部署后显示适应性,并且为了获得明确或隐藏的目标,收到的输入的信息,如何创建诸如预测,内容,建议或决策之类的输出可能会影响物理或可能影响物理或虚拟环境。

那真的是什么意思?我的解释是,创建输出的机器学习模型用于影响世界(尤其是每个人的物理或数字状况)。尽管已保险,但不必直接对其进行调整或自动限制。

但是,如果您正在构建用于做...的ML模型

  • 确定每个人的风险水平,例如信用风险,规则或法律风险等。
  • 确定在网上在数据供应或广告中显示的内容
  • 区分同一产品的不同人的显示价格
  • 提案治疗,护理或为每个人提供最佳服务
  • 建议每个人都执行某些行动

如果您的模型会影响欧盟公民的任何人,则所有法律都将提及所有内容 - 这只是一些例子。

对AI应用程序进行分类

但是,每个人都不一样,法律承认这一点。某些AI应用程序将被完全禁止,其他应用程序会受到更高的审查和透明度要求。

AI的不可接受的风险

这些类型的系统现在称为不可接受和不可接受的AI系统。法律的这一部分将从现在开始六个月后首先生效。

  • 操纵欺诈行为或技术使人们做他们不会的事情
  • 按年龄或残疾等事物来针对人们改变其行为和/或利用他们的行为
  • 生物识别分类系统,试图根据非常敏感的特征对人进行分类
  • 评估人格特征会导致社交评分或不同的治疗
  • 除了一组使用之外,还选择了执法机构的实时生物识别识别
  • 预测政策(预测人们将犯下未来犯罪)
  • 面部识别/宽生物识别扫描或数据扫描
  • 在没有医疗或安全目的的情况下,在教育或工作中的推理情绪

这意味着,例如,您不能建立(或被迫提交)筛选手段,以确定您是否足够快乐地获得零售工作。面部识别仅在选定的,有针对性的特定情况下受到限制。 ( Clearview AI绝对是一个例子。)预测政策,这是我职业生涯初期在学院工作的一件事,现在非常抱歉。

维京人的传记分类是指使用风险或敏感性的人们的模型,例如政治,宗教,哲学信仰,性趋势,种族等。根据法律,根据这些类别对人进行测试和标签的人。

高风险AI系统

另一方面,此列表包括未被禁止但要仔细考虑的系统。有一些特定的规则和法规将包括所有这些系统,如下所述。

  • 谁在医疗设备中
  • 谁在车里
  • 在情感身份系统中谁
  • 在政策中谁

这消除了上述具体使用情况。因此,可以允许情感识别系统,但不能在工作或教育中。在医疗设备中,他们被称为严重的风险或对健康和安全的潜在风险,只需要在很大程度上就可以追求。

其他

其余两个是低风险AI系统和常见的AI模型。通用模型是诸如GPT-4或Claude或具有非常宽的用例的双子座系统之类的东西,并且经常用于其他低源产品。因此,GPT-4本身没有高风险或被禁止的列表,但是您可以将其浸入使用的方式受到此处描述的其他规则的限制。您不能使用GPT-4来控制预测,但是GPT-4可用于低风险案例。

透明度和仔细审查

因此,假设您正在使用高风险AI应用程序,并且要遵守所有规则并获得批准以实施。如何开始?

对于高风险AI系统,您将负责以下内容:

  • 维护并确保数据质量:您在模型中使用的数据是您的责任,因此您需要仔细管理。
  • 提供文档和可追溯性:您从哪里获取数据,您可以证明吗?您可以将作品显示为任何更改或编辑吗?
  • 提供透明度:如果公众使用您的模型(考虑聊天机器人)或该模型是您产品的一部分,则必须告诉用户情况。不假装模型只是热线或客户服务系统上的真实人。这确实适用于所有型号,即使是低风险型号。
  • 使用人类的监督:只需说模型说,而不是削减。人类将对口语模型的结果以及最重要的是如何使用结果负责。
  • 保护网络安全和强大:您需要谨慎地确保模型免受网络攻击,违反和侵犯无意的隐私。您的模型被代码扭曲或通过您不修理的孔入侵。
  • 遵守影响评估:如果您要建立高风险模型,则需要严格评估对健康和安全的影响(即使您没有意图)。
  • 对于公共实体,欧盟公共数据库中的注册:该注册机构是新法律的一部分,申请请求将适用于机构和机械师。

查看

法律指出的另一件事是,如果您正在努力构建高风险AI解决方案,则需要有一种方法来检查它,以确保您按照说明进行检查同意。我们这些来自社会科学的人会发现这很熟悉 - 就像获得机构评估委员会的认可一样。

有效的

法律具有惊人的实施:

  • 在6个月内,禁止不可接受的风险是有效的
  • 在12个月内,通用的总管理生效
  • 在24个月内,法律中的所有剩余规则都会生效

注意:法律不包括完全个人的非专业活动,除非它们属于先前列出的被禁止类型,因此您的小型开源项目无法遇到风险。

惩罚

那么,如果您的公司不遵守法律并且欧盟公民受到影响,会发生什么?法律有明显的惩罚。

如果您是上述AI的禁止形式之一:

  • 罚款高达3500万欧元,或者如果您是一家公司,则是您从去年开始的全球收入的7% (取决于哪个水平更高)

其他违规行为不包括在被禁止的集合中:

  • 罚款高达1500万欧元,或者如果您是一家企业,则是去年全球收入的3% (取决于哪个水平较高)

向政府撒谎这些事情:

  • 罚款高达750万欧元,或者如果您是一家公司,则是您去年以来全球收入的1% (取决于哪个水平更高)

注意:对于包括初创公司在内的中小型业务,罚款较低,而不是更高。

数据科学家应该做?

如果您根据法律的定义使用AI建立模型和产品,则首先应该熟悉法律及其要求。即使您今天不影响欧盟公民,这也会对该领域产生重大影响,您应该知道这一点。

之后,请注意您自己的企业或组织中的潜在违规行为。您有时间发现和解决问题,但是AI的形式实际上被禁止。在大型企业中,您可能有一个法律团队,但不要以为他们会为您照顾所有这些。您是一名机器学习专家,因此您是企业如何检测和避免违规行为的重要组成部分。您可以在欧盟AI网站上使用合规性测试工具来帮助您。

当今的企业和组织中有许多形式的AI在这项新法律中不允许使用。我提到了上面的Clearview AI以及预测策略。情绪测试也是人们必须在工作面试过程中受苦的一件非常真实的事情(我邀请您参加Google的工作情绪测试,并查看提供的公司的攻击。此服务水平)以及很大的表面生物识别集合。一旦法律充分影响,对我们所有人来说,都要服从这一点并了解执行方式将是非常有趣和重要的。

我想在这里花一些时间,说几句话,关于我的一个亲密朋友在与癌症进行艰难的斗争之后,本周克服了。 Ed Visel在线被称为alistaire ,是一位出色的数据科学家,为更广泛的数据科学界花费了大量时间和才华。如果您在过去十年中问了一个有关Stackoverflow的问题,那么他为您提供了一个很好的机会。他总是耐心和友善,因为他是像我这样的自我创造的数据科学家,他知道以一种艰难的方式学到了这一点,从未失去这种感觉。

我很幸运地与埃德(Ed)合作了几年,他的朋友还有几个人。我们太早失去了他,我的问题是您帮助朋友或同事解决了他的记忆中的技术问题。没有他,数据科学界将是一个不太友好的地方。

此外,如果您知道Ed,在线或直接知道,一家人已要求向Severson Dells Natural Center捐款,这对他来说是一个特殊的地方。

在www.stephaniekirmer.com上阅读更多我的内容

参考并阅读更多

https://www.theverge.com/23919134/kashmir-hill-your-face-belongs-to-us-clearview-not-not-facial-reconion-privacy-decoder

点赞的用户