通过大量的数据训练是可以实现的,AI通过聆听街道背景音乐生成准确的街道图像的技术已经得到了实现。这项技术被称为“声音到图像扩散模型”,由德克萨斯大学奥斯汀分校的康宇豪副教授及其同事开发。该模型在一个包含10秒钟视听片段的数据集上进行了训练,这些片段由静态图像和环境声音组成,取自YouTube上的北美、亚洲和欧洲的城市和乡村街道视频。

利用深度学习算法,该系统学会了哪些声音与图像中的哪些项目相对应,以及哪些声音质量与哪些视觉环境相对应。训练完成后,系统的任务是根据100个其他街景视频录制的环境声音生成图像,每个视频生成一张图像。
在测试中,一个人类评委小组在聆听图像所依据的视频背景音乐的同时,向他们展示了每张图像以及两张生成的其他街道图像。当他们被要求识别三幅图像中哪一幅与配乐相对应时,他们的平均准确率达到了80%。此外,在对生成的图像进行计算机分析时,发现它们与原始视频中开阔天空、绿色植物和建筑物的相对比例“密切相关”。这项技术展示了AI如何将音频信号转化为视觉图像,实现了通过街道背景音乐生成准确的街道图像的目标,这在多个领域,如城市规划、虚拟现实和娱乐产业等,都具有潜在的应用价值。
网友回复
linux stream如何限制单个目录最大容量?
哪有免费的千问qwen3.6-plus的api可以使用?
python如何自动根据视频图片等素材自动按照要求剪辑视频生成剪映草稿?
gemma4与开源的qwen3.5哪个更厉害?
wan2.7 video与seedance2哪个更好?
claude code 51万行代码泄露被迫开源在哪能找到源码?
有没有免费的虚拟局域网工具可以将互联网设备组成一个大的局域网?
全球顶尖大模型这么强,为啥AGI 测试集体溃败 人类满分 AI 最高仅 0.37%?
听说字节seedance3的视频生成长度可达到10分钟?
谷歌的TurboQuant是不是真的?


