|
Post by account_disabled on Jan 7, 2024 21:29:09 GMT -9
欧盟人工智能法案在其第 5 条第 1 款“a”中定义并禁止它们:“禁止以下人工智能实践:a)将人工智能系统投放市场、投入服务或使用采用潜意识技术,绕过一个人的意识,严重扭曲他们的行为,从而导致或可能对该人或另一个人造成身体或心理伤害”[12 ]。 受《AIA 法案》的启发,巴西第 2338/23 号法案第 14 条禁止使用潜意识技术,将其定义为过度风险,如下:“禁止实施和使用人工智能系统: I – 采用潜意识技术,诱导自然人做出对其健康或安全有害或危险或违反本法基础的行为的目的或效果”。 从这些方面来说,除了该标准在执行方面的不足之外,它也没有提供对其内容的充分概念化。 传统上,“潜意识”是指逃避意识但仍影响行为的刺激,例如显示极短时间的图像。将阈下技术 Whatsapp 号码列表 狭隘地定义为简单的难以察觉的感官刺激是有问题的,因为许多潜在的操纵影响形式不属于这一类 [13]。 有问题的操纵技术往往不仅隐藏在感官层面,而且还隐藏在影响的意图、方法和效果中。例如,用户可能不知道他们看到的在线内容是专门为他们量身定制的(微定位) [14],也不了解这种定制的方法或效果 [15]。 潜意识技术的拟议定义可以将其识别为那些试图影响一个人的行为,而该人不知道试图影响、该影响如何运作或其对人的决定和信念的影响的技术。这清楚地表明了他们的私人自主权和知情同意权的削弱。该定义涵盖了人工智能驱动影响力的大多数相关形式,并提供了更适用的框架。 为了使监管有效,至关重要的是全面定义“潜意识技术”,解决所有潜在的操纵影响形式,以确保用户受到保护而不给服务提供商带来负担。 在最近关于《人工智能法案》主题的一项研究中,Bermúdez等人提出了一个定义。根据他们: 选择潜意识技术作为禁令的目标可能会导致对该禁令的解释过于狭隘,无法解决最严重的问题和普遍存在的有问题的操纵形式,或者导致对该禁令的解读过于宽泛,以至于对任何人都施加了禁止性负担。寻求开发或使用人工智能系统的组织。为了避免这两个极端,我们提出了一个定义,将潜意识技术识别为影响技术,在这种技术中,受影响的主体仍然可以预见地不知道影响刺激、技术运作的方式或其对他或她的价值观、信仰和决策的影响。这一定义基于对个人自主权的广泛共识,为法律文本提供了连贯的解释,并为技术发展的实践提供了伦理指导[16]。 也许值得添加的一种方法是拟议的设计法规命令(如美国绕行法案项目)。如果获得通过,该立法将授权美国联邦贸易委员会通过“征求同意或数据,或鼓励儿童强迫使用,损害或威胁用户的选择自由”来评估某项行动或行为是否不公平或具有欺骗性。文本将“行为或心理实验或研究”定义 为“通过行为感知的可见行为或心理过程的分析,包括个人和集体互动” [17]。 如果获得批准,大型在线平台将被禁止 [18]: 1) 更改或配置接口,损害用户在请求同意或数据时的自由选择或自主权; 2)未经每个用户明确同意,将用户分为特定群体进行行为或心理研究; 3)修改针对儿童的平台界面,以鼓励过度使用,包括未经用户授权自动播放的视频。 此外,该提案还对大型提供商施加了义务,强调了获得用户明确和知情同意的必要性。 最后,它是这场辩论的一个前提,它已经捍卫了承认新的基本权利、神经权利的必要性,这些权利保障认知自由和有关精神隐私、精神完整性和心理连续性的权利 [19],以保护和保护私人权利。自治权 [20] ,正如智利宪法[21]中已经规定的那样 。 因此可以看出,人工智能的监管及其对决策环境的影响需要以跨学科和广泛的方式进行,以促进对不断进步的技术的复杂控制,而不会对人工智能造成障碍。创新。
|
|