由于GPU的多核特性,Colab是训练机器学习项目(如Deepfake模型)或进行数据分析的理想选择。
Deepfake可以被训练成在视频片段上交换人脸,添加逼真的面部表情,使结果看起来很真实,尽管它是假的。
它们已被用于传播假新闻,创造报复性色情内容,或用于娱乐。然而,它们的使用缺乏道德限制,一直是争议和担忧的来源。
根据archive.org的历史数据,禁令发生在本月初,Google研究部悄悄地将深度造假加入到不允许的项目列表中。
正如DFL开发者"chervonij"在Discord上指出的那样,现在那些试图在Colab平台上训练深度假造的人都会收到以下错误提示:
"你可能正在执行不被允许的代码,这可能会限制你在未来使用Colab的能力。请注意我们的常见问题中规定的禁止行为"。
这项新限制的影响预计将在Deepfake领域产生深远影响,因为许多用户利用Colab的预训练模型来启动他们的高分辨率项目。
Colab正在使这个过程变得非常容易,即使是那些没有变成背景的人,这就是为什么这么多教程建议Google的"免费资源"平台来启动Deepfake项目。
资源滥用
目前还不知道Google执行这一政策是出于道德方面的考虑,还是对这些项目所利用的免费计算资源的猖獗滥用。
Colab的目的是供那些需要花费数千美元的力量来帮助他们实现科学目标的研究人员使用。这在GPU短缺的时期尤其关键。相反,有报道称,一些用户正在利用该平台的免费层级,大规模地创建Deepfake模型。这长期占用了Colab的大量可用资源。
下面列出了不允许的项目的完整清单:
文件托管、媒体服务或其他与Colab的互动计算无关的网络服务产品
下载Torrents或参与点对点的文件共享
使用远程桌面或SSH
连接到远程代理机构
挖掘加密货币
运行拒绝服务攻击
破解密码
使用多个账户来绕过访问或资源使用限制
制作Deepfake项目
所有被禁止的项目都远远不符合正规科学研究的要求。虽然有些项目可能符合这种情况,但似乎Google检测到的滥用情况远远多于合法情况。
最新文章