
Gentoo Linux
Michał Górny,Gentoo 社区的杰出人物,强调了对与人工智能生成内容相关的日益严重的问题的担忧,并倡导采取一种方法来保护 Gentoo 内容的完整性 提议禁止人工智能生成的贡献。
鉴于这一提议,董事会Gentoo指令制定了一系列禁止使用的规定 人工智能工具,例如 ChatGPT、Bard 和 GitHub Copilot,用于创建与 Gentoo 发行版相关的内容。这包括为 Gentoo 组件编写代码、创建 ebuild、准备文档以及提交错误报告。
除此之外,Górny 的提议 旨在维护 Gentoo 的真实性和质量声誉。 通过确保内容由人类贡献者创建,Gentoo 可以维持其标准并避免与人工智能生成内容相关的法律和道德风险。
导致该禁令的主要担忧包括:
版权侵权风险
目前, 内容可能侵犯版权仍存在不确定性 人工智能生成的内容是由经过大数据集训练的人工智能模型生成的,因此人工智能生成的内容在版权方面的合法性仍然不确定。人工智能模型通常是在受版权保护的材料上进行训练的,人工智能工具存在产生违反版权法的内容的风险。此外,人们还担心人工智能工具生成的代码无法确保符合许可要求,因为生成的代码可能被视为受某些许可约束的衍生作品。
例如,在需要归属的许可证的代码上训练人工智能模型,AI工具生成的代码不满足此要求,这可以被视为违反了GPL、MIT和Apache等多个开放许可证。通常用于自由和开源软件项目。这是因为生成的代码没有提供用于训练模型的代码的原始作者的必要归属。
另外, 合并生成的代码时可能会出现许可证兼容性问题 通过在具有宽松许可证的环境中使用 Copyleft 许可证的项目训练的模型。 Copyleft 许可证与 GPL 一样,要求衍生作品在相同的 Copyleft 许可证下分发,这可能与允许衍生软件的使用和分发有更大自由的宽松许可证发生冲突。
质量保证
虽然 AI工具生成的代码或文本可能在表面上看起来是正确的,已经表明人工智能生成的内容 质量差异很大。 虽然一些人工智能模型可以产生看似合理的内容,但存在产生无意义或不准确材料的风险。使用未经验证的内容可能会导致项目质量降低,并增加验证代码准确性和质量的工作量。
验证人工智能工具生成的代码需要付出相当大的努力 以确保准确性和质量。在分析自动生成的错误报告时,开发人员面临着区分有用报告和不相关或包含不正确信息的报告的挑战。这可能会导致浪费时间反复审查信息和验证事实,因为设计的表面质量可能会导致对所提供的信息产生错误的信心。
人工智能生成的代码设计的外部质量会给人一种一切都井然有序的印象,这可能会导致审核人员忽视问题,并可能导致需要多次审核和验证自动生成的代码中包含的信息。这会消耗宝贵的开发时间和资源。
道德考量
人工智能生成内容的快速扩散引发了道德担忧 还提到了与训练人工智能模型时的版权侵权、创建这些模型时的高能源成本造成的环境影响以及可能助长垃圾邮件和诈骗有关的道德问题。这就是为什么 Gentoo 社区希望确保人类贡献者创建的内容符合 Gentoo 的真实性和质量价值观。
最后,提到 Gentoo 社区指出新要求 禁止使用人工智能工具 不会选择性地应用于那些可以证明不侵犯版权的工具,保持高质量标准,不引发道德问题。这表明,如果人工智能工具能够确保不存在法律冲突,确保所产生的工作质量,并满足可接受的道德标准,则可以考虑在 Gentoo 项目中使用它,尽管存在全面禁令。
如果你是 有兴趣了解更多关于它的信息, 您可以在中查看详细信息 以下链接。