最受欢迎的文本到图像人工智能生成工具之一 Stable Diffusion 近日宣布,在下一个版本中,用户将有看到一个“退出(opt out)”的新选项,让该工具背后的人工智能模型不再收集其作品作为训练数据。
Stability.AI 将与 Spawning 合作,后者是由艺术家夫妇马特·德里赫斯特(Mat Dryhurst)和霍莉·赫恩顿(Holly Herndon)创建的组织。
他们建立了一个名为 HaveIBeenTrained 的网站,允许艺术家在 Stable Diffusion 的训练数据集中搜索自己的作品。艺术家们将能够选择想从训练数据中排除的作品。
在做出这一决定之前,艺术家和科技公司就如何训练文本到图像的人工智能模型展开了激烈的公开争论。
Stable Diffusion 是基于开源的 LAION-5B 数据集,该数据集是通过从互联网上抓取图像来构建的,包括受版权保护的艺术家的作品。
一些艺术家的名字和风格,已经成为许多用户填入人工智能工具的热门提示。
德里赫斯特告诉《麻省理工科技评论》,在 Stability.AI 开始训练它的下一代模型 Stable Diffusion 3 之前,艺术家们有“大约几周的时间”选择让它删除自己的作品。
(来源:Pixabay)德雷赫斯特说,希望在人工智能艺术和知识产权制定出明确的行业标准或监管之前,Spawning 争取到的“可选退出”服务将成为一个很好的补充。德里赫斯特认为,在未来,艺术家们也将能够选择将他们的作品包含在数据集中。
Stability.AI 发言人告诉《麻省理工科技评论》:“我们正在倾听艺术家和社区的意见,并与合作者合作,来改进数据集。这包括允许人们选择退出这个模型,也包括让他们重新选择加入。”
但概念艺术协会(Concept Art Association)的董事会成员、艺术家卡拉·奥尔蒂斯(Karla Ortiz)认为,Stability.AI 做的还不够。
她说,给予艺术家们“选择退出”的事实意味着,世界上每个艺术家都自动被选中了,我们的选择被剥夺了。
“Stability.AI 唯一可以做的事情是算法释放,也就是完全摧毁他们的数据库,完全摧毁所有包含我们数据的模型,”她说。
概念艺术协会正在筹集 27 万美元以聘请一名全职说客,希望能改变美国的版权、数据隐私和劳动法,以确保艺术家的知识产权和工作得到保护。
该组织希望更新有关知识产权和数据隐私的法律,以覆盖新的人工智能技术,并且要求人工智能公司遵守严格的道德准则,而且还要与处理创造性工作的工会和行业组织合作。
奥尔蒂斯说:“我们真的觉得这些艺术家现在是煤矿里的金丝雀(冒着危险的试验品)。”
奥尔蒂斯说,该组织正在向所有创意行业发出警报,称人工智能工具“来势汹汹”,而且“使用的方式极具剥削性”。
支持:Ren
原文:
暂无评论内容