通过大量的数据训练是可以实现的,AI通过聆听街道背景音乐生成准确的街道图像的技术已经得到了实现。这项技术被称为“声音到图像扩散模型”,由德克萨斯大学奥斯汀分校的康宇豪副教授及其同事开发。该模型在一个包含10秒钟视听片段的数据集上进行了训练,这些片段由静态图像和环境声音组成,取自YouTube上的北美、亚洲和欧洲的城市和乡村街道视频。

利用深度学习算法,该系统学会了哪些声音与图像中的哪些项目相对应,以及哪些声音质量与哪些视觉环境相对应。训练完成后,系统的任务是根据100个其他街景视频录制的环境声音生成图像,每个视频生成一张图像。
在测试中,一个人类评委小组在聆听图像所依据的视频背景音乐的同时,向他们展示了每张图像以及两张生成的其他街道图像。当他们被要求识别三幅图像中哪一幅与配乐相对应时,他们的平均准确率达到了80%。此外,在对生成的图像进行计算机分析时,发现它们与原始视频中开阔天空、绿色植物和建筑物的相对比例“密切相关”。这项技术展示了AI如何将音频信号转化为视觉图像,实现了通过街道背景音乐生成准确的街道图像的目标,这在多个领域,如城市规划、虚拟现实和娱乐产业等,都具有潜在的应用价值。
网友回复
deepseek v4与glm5.1 kim2.6 qwen3.6哪个ai模型更强更好用?
gpt-image2能直接将图片转成分层透明的psd设计文件?
claude code、codex、gemini cli如何切换国内大模型使用?
蒸馏最强ai大模型是中小ai模型低成本升级的最好通道?
arena.ai上为啥没有最新的claude4.7及gpt5.5呢?
ai大模型公司为啥开始大量招聘文科生了?
cloudflared如何在低版本centos6或7上安装?
bfwsoa框架如何开启异步缓存与异步任务模式?
selenium如何获取网页js加载渲染后的真实dom结构?
go编写的Eino与python编写的langchain如何选择?


