音画代码 这个Python包只需几行代码

音画代码(这个Python包只需几行代码)
Lucid Sonic Dreams 包可以实现 GAN 生成图像的「音画同步」效果,且支持自定义 。
GAN 生成图像奇幻诡谲,对此我们早已不生疏 。假如它们还可以卡音效呢?最近,有人就创建了一个实现类似效果的 Python 包——Lucid Sonic Dreams,只用几行代码就可以实现 AI 生成画作与音乐的同步 。
GitHub 地址:https://github.com/mikaelalafriz/lucid-sonic-dreams
Colab 教程地址:https://colab.research.google.com/drive/1Y5i50xSFIuN3V4Md8TB30_GOAtts7RQD?usp=sharing
在该项目提供的 demo 视频中,伴随着 Saje 的歌「Raspberry」,GAN 生成的图像不断变换且呈现出了对应的节奏 。
工作原理
生成艺术品通常是由 GAN 网络来完成的 。Lucid Sonic Dreams 包默认使用 StyleGAN2-ADA 架构,不过 GAN 架构也可以自定义 。将这些模型在特定「风格」的图像数据集上进行练习,使之能够输出与练习图像风格一致的无穷多张图像 。此外,Lucid Sonic Dreams 使用 Justin Pinkney 创建库中的 StyleGAN2 预练习模型(地址:https://github.com/justinpinkney/awesome-pretrained-stylegan2)。
那么这些图像到底是如何生成的呢?
【音画代码 这个Python包只需几行代码】将输入馈送至 StyleGAN2 模型(输入为有 512 个数字的向量),输入决定了模型的输出图像,因此对输入向量进行微小更改也将带来输出图像的微小变化 。
现在,有趣的部分到了:假如我们从音乐中获取声波,从声波中提取数值(如振幅)并添加至输入向量,会发生什么?
Lucid Sonic Dreams 对视频每一帧执行这些操作,生成脉冲与变换与音乐一致的图像 。
详细而言,利用 Lucid Sonic Dreams 包,音乐控制了 3 个主要视觉组件:脉冲(Pulse)、运动(Motion)和类别(Class):
脉冲指视觉画面随着音乐的敲击性节奏而「跳动」 。从数学角度来看,「脉冲」是向输入向量暂时添加声波振幅的结果(即在下一帧中该向量仍是初始向量);
运动指视觉画面变换的速度 。从数学上看,它是向输入向量累积添加振幅(即添加的振幅后续不会被清零);
类别指生成图像中物体的标签,例如基于 WikiArt 图像练习的风格中就有 167 个类别(包括梵高、达芬奇、抽象派等) 。而这些由音调进行控制,详细而言,12 个音高分别对应 12 个不同类别 。这些音高的振幅对传输至第二个输入向量(类别向量)的数字造成影响,而这由模型生成的对象来决定 。
项目作者表示,这个想法受到 Matt Siegelman 的 Deep Music Visualizer 项目的启发 。目前网上也有一些类似的项目,但 Lucid Sonic Dreams 的独特之处在于以 Python 包形式实现,且答应自定义 。
使用 Lucid Sonic Dreams 包,你可以做到这些
Lucid Sonic Dreams 具备极强的易用性和灵活性 。用户可以使用 pip 进行安装:
然后只需输入几行 Python 代码即可:
fromlucidsonicdreamsimportLucidSonicDreamL=LucidSonicDream(song=chemical_love.mp3,style=abstractphotos)L.hallucinate(file_name=chemical_love.mp4) 改变风格
运行以下代码,我们可以查看默认可用的风格:
fromlucidsonicdreamsimportshow_stylesshow_styles() 这样就可以得到一组风格名称,这些风格来自 Justin Pinkney 创建的库 。你还可以输入自己的 StyleGAN 权重,或者使用其他 GAN 架构 。
调整参数
Lucid Sonic Dreams 包的默认设置很好用,但它实际上有很多参数——30 多个,不过这些参数是可以调整的(参数具体信息参见 Colab 教程) 。
哪些参数最重要呢?我们来看整个视频生成 pipeline:
首先,对输入向量进行初始化和插值,作为视频的「基础运动」(base motion) 。参数 speed_fpm 控制运动的速度,fpm 表示「每分钟帧数」,即每分钟初始化的向量数 。对于每个后续帧而言,参数 pulse_react, motion_react, and class_react 控制音频操纵每个对应组件的程度 。
模型基于这些向量生成图像后,图像被传输经过一系列特效(也对音乐产生反应) 。默认情况下,Lucid Sonic Dreams 包具备「contrast」和「flash」特效,可以与音频的敲击性节奏同步 。通过设置 contrast_strength 和 flash_strength 参数,即可进行调整 。使用者还可以创建自定义特效 。
以下代码展示了调参过程:
L=LucidSonicDream(pancake_feet.mp3,style=modernart)L.hallucinate(file_name=pancake_feet.mp4,speed_fpm=0,motion_react=0.8,contrast_strength=0.5,flash_strength=0.7) 使用自己的 StyleGAN 权重
假如你自己练习过 StyleGAN,或者在网上获得了一些模型权重,你可以选择将文件路径传输至这些权重,作为风格参数的值 。