当前,美国并未制定相关法律规范人工智能(AI)的发展。不过,美国政府不久前宣布,7家领先的人工智能技术公司已同意进行自我监管,并将设立所谓的“数字护栏”来防范这项新兴技术带来的风险。
这7家公司包括OpenAI、谷歌、Meta、亚马逊、微软、机器学习初创公司Inflection和由OpenAI前成员成立的人工智能安全与研究公司Anthropic。他们做出多项承诺,包括在面向公众发布各自的AI系统之前,对其进行独立的安全性测试,并与政府分享技术安全信息。在AI工具的协助下,用户可以毫不费力地创建视频、照片和文本,而这些承诺旨在让这一工具的商业化竞争更加透明。不过,这些承诺并不具有法律约束力,目前也没有出台任何报告制度或者时间表以在法律上约束这些公司履行承诺。
在承诺做出之时,正值美国演员工会和编剧工会60余年来首次联合罢工,好莱坞影视制作基本陷入停滞。罢工者认为,AI技术占据了他们的工作机会,在与电影公司和流媒体公司就新合同进行谈判时,他们的核心诉求就是对AI采取防范措施。
(资料图片仅供参考)
7月13日,美国演员工会—美国电视和广播艺人联合会首席谈判官兼执行董事邓肯·克拉布崔-艾兰(Duncan Crabtree-Ireland)表示,行业持续利用AI技术,无疑会贬低人工劳动成果的价值,如很多公司只支付群众演员一天的工资,在换取他们的数字形象版权后,将数字形象用于作品的剩余部分。
在近日举行的美国圣迭戈动漫展上,《幽灵鬼屋》(Haunted Mansion)导演贾斯汀·瑟门(Justin Simien)谈到对AI的看法时说:“如果没有其他人类的艺术创作,AI是无法工作的,因为它基本上就是剽窃加融合再生成。但我预感,这些为AI提供了素材积累的艺术家,终将被排挤出这个世界。”
眼下,美国政府正围绕AI的发展制定行政命令,并寻求出台相关立法。这些科技公司的承诺相当于美国政府在AI监管上采取的初步措施。由于OpenAI等行业领先企业,在未经许可的情况下,持续大量使用网络上的数据、文学和艺术作品来训练如ChatGPT等语言大模型产品,各国政府都在出台针对AI技术的监管措施上加快了脚步。
此前,随着大型科技企业和社交媒体的崛起,数据隐私问题成为全球性问题,但各国监管机构很大程度上并未能实现有效监管。如今,多个行业的岗位面临着被AI取代的威胁,如何解决这一工具带来的新问题,监管机构显然压力重重。
大型科技公司向政府做出妥协,也是一个以退为进的策略——试图自行制定法规,从而避免可能出台的法律框架,在模型训练受到监管前,尽可能多地给各自的AI系统输入数据。
虽然立法者争论了多年,但美国迄今仍未颁布任何联邦数据隐私法来限制Meta、Alphabet和亚马逊等公司获取数据的能力。而这些公司凭借拥有的数据库规模,已在众多市场中占据主导地位,更有迹象表明,他们有可能实现对AI领域的近乎全面的控制。
共识媒体咨询公司(Common Sense Media)CEO吉姆·斯泰尔(Jim Steyer)对媒体表示,“历史总是表明,很多科技公司都不会真正采取负责任的行动。追求利益优先的本质让这些科技巨头最终都会选择规避责任。”
一位不愿透露姓名的美国联邦贸易委员会官员表示,《联邦贸易委员会法》禁止不公平竞争手段和商业欺诈行为,因此可能会依据该法对未能遵守承诺的公司予以惩罚。但如果联邦贸易委员会没有可以依赖的报告制度或时间表,执法时就很可能会遇到麻烦。
南加州大学教授、《人工智能的地图集》(Atlas of AI)一书作者凯特·克劳福德(Kate Crawford)指出,“就科技界而言,新达成的自愿承诺具有意义,但如何应对技术在文化领域产生的深远影响,以及如何用过往的创作来训练生成式人工智能,承诺里都未提及。”
如今,各个AI公司仍在用海量的艺术创作、文学作品、个人信息及新闻报道训练各自的系统,而这些数据大部分都是从网上免费获得的,涉及的版权问题将会越来越多。OpenAI目前就正因这一问题面临着至少4起集体诉讼,这些案件很可能会对美国现有的版权法提出新挑战。
瑞安·克拉克森(Ryan Clarkson)是一个针对 OpenAI 的集体诉讼案的首席律师,他代表着数百万数据被盗用的互联网用户,他总结,“仅凭大科技公司承诺自我监管是远远不够的。很多药物有望造福人类,但是必须等到副作用确认可控后才获准在全球范围内销售,而不是研发出来就马上上市。AI这个精灵也一样,我们一旦打开瓶子,就无法把它再装回去了。美国政府一直在强调司法干预的必要性,但却如此草率地与科技公司达成了协议。”
附:7家公司做出的承诺
● 发布AI系统前,进行内部和外部安全测试;在全行业内以及政府、社会团体和学术界分享AI风险管理信息。
● 在网络安全和内部风险防范上加大投资,以保护各公司专有的和未发布的模型权重。
● 给第三方发现和报告各自AI系统中的漏洞提供便利。
● 开发制约机制,例如水印系统,确保用户知道哪些内容由AI生成。
● 公开报告各自AI系统的性能、局限性以及恰当和不恰当的应用。
● 把研究AI系统可能带来的社会风险放在首位,包括避免出现有伤害性的偏见和歧视,并保护用户隐私。
● 开发部署先进的AI系统,帮助解决社会面临的最大挑战。