不希望自己作品被 Stable Diffusion“白嫖”的画家们,可以松口气了!
Stable Diffusion 3.0 版本将会提供一个选项:
艺术家们可以选择将自己的画作纳入 Stable Diffusion 3 的训练数据集,或从数据集中删掉。
据了解,未来几周内,这个操作就会被开启。
不过,承接这个任务的不是 Stability AI 本身,而是一个叫 Spawning 的艺术家倡导组织。
自由选择纳入或删除作品
选择在 Stable Diffusion3 中纳入或删除自己的作品,步骤十分简单。
画师们只需要在网站“Have I Been Trained?”注册,并表明自己希望在训练数据集中删除或者纳入哪些自己的作品。
而后,Spawning 会收集艺术家们在网站上的意向。
网站 Have I Been Trained 背后是 LAION-5B 训练数据集,它被用来训练 Stable Diffusion 和 Google 的 Imagen AI 等模型。
LAION 是一个非营利性的开源数据集,Stability AI 对其进行了部分资金资助。
具体操作是酱婶的:
首先需要在 Have I Been Trained 上注册一个账户,然后上传自己的画作。
利用 LAION 图像数据库,搜索引擎会显示出上传画作在数据库训练集中的匹配项。
这个时候,只需要分别右键单击几个缩略图,并在弹出选项中选择选择删除此图像即可。
所有退出数据集的图像,都会集中显示在一个“选择退出”的图像列表中。
当然,上述还只是进行操作的大概步骤,实施细节尚待完善。
Stability AI 创始人兼 CEO Emad Mostaque 在推特上表示,除了选择删除外,Spawning 还将提供选择加入请求。
也就是说,希望自己作品成为训练集一部分的艺术家,同样可以把自己的画作添加到里面。
这位 CEO 在推特上还说了:
我们希望为大伙儿建立更好的数据集,相信这是一项变革性的技术。
我们乐意与各方接触,并尽可能做到透明。
承接数据收集工作的 Spawning,是一个总部位于柏林的艺术家倡导组织。
它很年轻,今年 9 月刚刚创建创建,创始人是 Dryhurst 夫妇和一位音乐家。
Dryhurst 表示,这三个月来,Spawning 一直在和 Stability AI 和 LAION 进行洽谈,并得到了支持。
他还表示,Spwaning 是一个独立组织,不会把收集来的数据拿去做任何别的事。
然而,人们对事情的担心并不局限在数据隐私上。
一个方面是,要从训练集中删除图像,前提是你想要删除的图像已经存在于 LAION 数据集中,且可以在 Have I Been Trained 上搜索到。
此外,目前没有办法选择批量删除图片,如果数据集中存在同一图像的多个副本,那么删除起来可是个费时费力的大工程。
而争议的目光最为聚集的一点,则是让艺术家们纷纷跑去注册一个和 Stability AI 或 LAION 没有法律约束的网站。
目前在 Have I Been Trained 完成“删除图像”的操作,整个流程可以说是畅通无阻。
没错,你既不会遇上任何试图验证身份的步骤,也不会遇上任何法律约束的条约。
也就是说,你想把别人的作品添加或从训练集中删除,轻而易举,完全不受阻碍。
以及,针对 Spawning 在其公告视频中关于同意的声明,有网友指出,选择退出过程不符合欧洲通用数据保护条例(GDPR)中关于“同意”的定义。
这份条例中规定,必须予以用户主动同意的权利,而不是默认同意了。
谁拥有 AIGC 作品版权?
有看客拥有更激烈一些的看法:
设置的选项,应该只有“要不要让自己的画作加入训练集”,而不是既有加入也有删除。
他们的观点是,所有的艺术作品都应该默认被 AI 训练集排除在外。
今年,AIGC 的力量喷薄而出,席卷全球各行各业。
自 DALL・E 2 在 4 月发布以来,创意产业一直对 AI 艺术图像所有权的问题议论纷纷,尤其是画家本人,他们中不少都抱着饭碗对 AIGC 骂骂咧咧。
等到开源的 Stable Diffusion 在 8 月发布时,有关模型训练的争议也越来越大。
用大量网络中真人画师的作品组成数据集,然后生成 AI 画作,被有的网友批判为“抄袭和偷窃”。
但是这样的“抄袭”很难衡量其频次,因为扩散系统是根据来自不同来源的数十亿张图像进行训练的。
而且,这样生成的作品,版权到底归属哪一方?
是被“学习”的画家,还是 AI 模型背后的公司,抑或是 AI 模型本身?
一切尚未有所定论。
前几天,马里兰大学和纽约大学的科学家们做了一项新研究,研究表明:
DALL・E2 和 Stable Diffusion 这样的文生图 AI 模型,可以并且确实在从它们的训练数据集中,疯狂复制数据集图像的各个方面。
“使用扩散模型生成数据的公司,可能需要重新考虑涉及知识产权法的任何部分。”研究人员表示,“因为几乎没办法验证 Stable Diffusion 生成的任何图像,是不是全新的,或者有没有从训练数据集中窃取别人的成果。”
研究表明,模型复制的频率取决于几个因素,包括训练数据集的大小,较小的集合往往比较大的集合导致更多的复制。
与此同时,一旦模型记住了原画作,就很难判定生成图像和原始图像之间的界限。
相似度达到多少,才能判定抄袭与否或版权归属何方呢?
研究人员也并没有给出答案,他们只是说:
我们不能抛弃扩散模型,应该考虑如何在不损害隐私的情况下保持它们的性能。
那么,有没有一种办法,让艺术家的版权受到保护需求,和 AI 生成技术继续进步达到微妙的平衡?
Stability AI 承认,自家产品引发了对在线 AI 生成艺术的大规模道德辩论,其间主流还是抗议的声音。
不过,就让艺术家自动选择加入或删除图像这事儿,CEO 同志 Emad Mostaque 毫不忌讳地表达了自己的开放态度。
他在推特上写道:
@laion_ai 团队对反馈有着非常开放的心态,我们的初心是希望为所有人构建更好的数据集。
那么,你是怎么看待 AIGC 生成作品版权归属的?
参考链接:
[1]https://venturebeat.com/ai/stability-ai-to-honor-artist-opt-out-requests-for-stable-diffusion-3/
[2]https://twitter.com/EMostaque
本文来自微信公众号:量子位 (ID:QbitAI),作者:衡宇
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。