AI如何创建音乐?如何确定版权?

资料来源:DeepTech(原产地:麻省理工学院技术评论)在1956年,当时计算机领域的主要科学家聚集在达特茅斯(Dartmouth)进行标签-Sinit会议,“人工智能”一词刚刚出现。大约70年后,经过多次上升和落在该领域的周期之后,它处于蓬勃发展的阶段。在过去的三年中,文本开发的大型语言模型发展迅速,基于扩散模型的另一种人工智能以不间断的动量影响创意领域。扩散模型可以将随机噪声转换为有序模式,并在文本信号或其他输入数据指南下生成新的图像,视频或声音。领先的扩散模型产生的内容与人类的创造不可媲美,还可以产生kakdiverent and Orterleal的作品,这与乍一看与人类的创造不同。这些模型已经进入音乐领域。人工智能创建的音乐活动从交响曲到重金属,igence完全融入了我们的生活中。这些歌曲可以出现在流行的媒体播放列表平台,派对和婚礼播放列表以及电影和电视配乐上。音乐创作中音乐爆炸模型的原理类似于图像的产生,但是它不是从钢琴和弦开始的,例如创建乐队并逐渐添加诸如声音和鼓声之类的元素,而是同时形成所有音乐元素。此过程基于以下事实:歌曲的许多复杂特征可以在单个波中视觉显示,代表了波动时间的广泛声音的变化,并且它确实包含了所有不同仪器和音调的频率之和。由于可以处理波形或类似的光谱图,例如图像,因此可以根据它们创建扩散模型。练习模型时,在此处输入数百万个现有的歌曲段,并将描述标签添加到每个细分市场中。什么时候该模型形成新歌曲,始于纯随机噪声,并根据直接单词的描述逆转新浪潮。 Udio和Suno Intelligence的人造音乐公司在音乐生成模型领域竞争。两家公司都致力于开发AI工具,以允许非专业音乐家创作音乐。 Suno更大,拥有超过1200万用户,并获得了2024年5月的125美元,并与著名的音乐家Timbaland合作;乌迪奥(Udio)从著名的投资机构(例如安德烈·霍洛维茨(Andreessen Horowitz)和音乐家)收到了1000万美元的种子。目前,乌迪奥(Udio)和苏诺(Suno)的成就表明,大量人似乎不在乎他们是否听到的音乐是由人创造的还是由机器创建的。 Suno为创作者提供了艺术家页面,其中一些吸引了大量粉丝,在AI上完整地形成歌曲,并且通常与艺术家形象的艺术家形象相对应。他们不是音乐家从传统意义上讲,但是掌握了输入即时言语的技巧。他们创作的作品很难属于特定的作曲家或唱歌。 (来源:麻省理工学院技术评论)但是,音乐行业抵制了这一点。 2024年6月,两家公司被指控犯有主要唱片公司,相关诉讼仍在进行中。 Universal和Sony等唱片公司指责AI模型在培训期间使用大量版权音乐,以及“模拟人类录音的真正质量”的歌曲。在针对Suno的诉讼中,这首歌类似于Abba的“蓬松皇后”风格。 Suno没有回应诉讼的评论请求,但是在8月份发表的一份声明中,首席执行官Mikey Shulman说,该公司的博客可以公开访问培训,其中包含版权内容,但他认为“这项研究并不构成违规行为”; Udio的代表说,该公司不会对未决诉讼发表评论它。诉讼发生时,Udio发表了声明,称模型配备了过滤器,以确保版权所有或模仿艺术家的声音不会复制。美国版权局在一月份发布的指南使情况变得复杂。意见指出,如果将人工智能产生的作品集成到大量的人类投资中,则可以获得版权。一个月后,纽约的一位女演员获得了在AI的帮助下创作的视觉艺术作品的第一个版权。也许很快,第一首AI生成的歌曲也将是版权。这些法律案件被困在模糊的区域中,类似于其他与AI相关的法院纠纷。主要问题是是否允许AI模型使用版权内容进行训练,以及形成的歌曲是否形成了Styleperson风格的不适当副本。无论法院如何决定,AI音乐都有可能以某种形式发展的潜力。据报道你Utube正在与主要唱片公司进行交谈,以获取用于AI培训的音乐许可证。 Meta最近扩大了与环球音乐集团的合作协议,这意味着AI生成的音乐许可可能会列入议程。如果AI音乐继续发展,那值得什么?这涉及三个主要因素:训练数据,扩散模型本身和直接单词。模型的质量取决于它所学的音乐库的宝藏及其描述。描述越准确,模型效应越好。模型体系结构决定了知识是如何用于制作歌曲的。模型输入的直接单词和“理解”直接词的水平也很重要。音乐是由AI创建还是简单地复制培训数据产生的?可以说,最关键的问题在于宽度,培训数据的差异和准确性。 Suno或Udio也没有透露其训练集中包含哪些音乐,但这些细节可能是在试验过程中披露。乌迪奥说,这些歌曲的标记方式对模型非常重要。一个简单的描述只能确定歌曲的类型,而更详细的描述也可以包括歌曲的情感语气,例如忧郁,兴奋或沉默等,专业描述可能与2-5-1的和弦开发或特定量表有关。乌迪奥说,他们通过整合机器和制造标签来实现这一目标。高度复杂的AI音乐一代平台需要继续学习新歌,否则开发它们的作品将逐渐变得过时。目前,AI产生的音乐取决于人类艺术作品,但是将来,AI音乐模型可能会使用自己的输出进行培训,并且这种方法一直在尝试其他AI领域。由于该模型从随机噪声采样产生音乐,因此结果不确定,即使同样的直接wor,每次形成的歌曲都会有所不同DS被插入。包括Udio在内的扩散模型的许多开发人员也为生成过程增加了进一步的随机性,即在每个步骤中形成的波浪的微调,希望使输出更有趣或现实。 。为了测试这一点,Guml我已经经历了几天的UDIO模型。使用该模型提出了30秒的音乐示例,大约需要一两分钟的时间,如果是付费版本,您可以提出整首歌。我选择了12种音乐流派,为每种流派形成歌曲样本,发现与人们时尚相似的歌曲。然后,我设计了一项考试,让我的同事说AI创作了哪些歌曲。最终测试结果的平均准确性为46%。听众经常在某些类型上犯错,尤其是乐器音乐。在观察和审判中,我发现他们认为AI合成歌曲的特征(例如奇怪的语音效果和奇怪的歌词)通常是不可靠的。不出所料,人们对不太熟悉的音乐流派的判断力较低。有些人对音乐或灵魂音乐有更准确的判断力,但是许多人对爵士乐,古典钢琴音乐或流行音乐的判断力很差。 Beaty的创造性研究的精度率为66%,作曲家Brandt的准确率为50%(即使他在乐团和钢琴奏鸣曲的试验中也有准确的反应)。应该清楚的是,这些AI生成的歌曲并未完全归因于模型本身,并且如果没有人类艺术家的作品作为培训数据,这些歌曲就不可能诞生。但是,用简单的单词统一,该模型可能会产生很难告诉许多人是否是用机器写的歌曲。与聚会一起播放这些歌曲并不容易注意到这是独一无二的。我还发现了两首诸如Kor Expore的歌曲,甚至对音乐非常挑剔的专业音乐家或人们都不会突然感到。但是,真实的声音听起来并不创意。这些歌曲缺乏大学Que风格,没有贝多芬的风格“讲杰作”,并且不会破坏流派的局限性或展示大胆的主题变化。在测试中,有时人们很难判断AI或质量差的人制作的歌曲?人们可能想知道这些音乐背后的创造者是谁。但是,在最终分析中,无论那里有多少人工智力成分或多少人类组成部分,毕竟是艺术,人们都会根据其美学价值的质量来判断它。原始链接:https://www.technologyreview.com/2025/04/16/1114433/ai-ai-ai-ai-aighative-music-music-music-diffusion-creativity-creativity-songs-writer/