通过大量的数据训练是可以实现的,AI通过聆听街道背景音乐生成准确的街道图像的技术已经得到了实现。这项技术被称为“声音到图像扩散模型”,由德克萨斯大学奥斯汀分校的康宇豪副教授及其同事开发。该模型在一个包含10秒钟视听片段的数据集上进行了训练,这些片段由静态图像和环境声音组成,取自YouTube上的北美、亚洲和欧洲的城市和乡村街道视频。
利用深度学习算法,该系统学会了哪些声音与图像中的哪些项目相对应,以及哪些声音质量与哪些视觉环境相对应。训练完成后,系统的任务是根据100个其他街景视频录制的环境声音生成图像,每个视频生成一张图像。
在测试中,一个人类评委小组在聆听图像所依据的视频背景音乐的同时,向他们展示了每张图像以及两张生成的其他街道图像。当他们被要求识别三幅图像中哪一幅与配乐相对应时,他们的平均准确率达到了80%。此外,在对生成的图像进行计算机分析时,发现它们与原始视频中开阔天空、绿色植物和建筑物的相对比例“密切相关”。这项技术展示了AI如何将音频信号转化为视觉图像,实现了通过街道背景音乐生成准确的街道图像的目标,这在多个领域,如城市规划、虚拟现实和娱乐产业等,都具有潜在的应用价值。
网友回复
如何编写一个chrome插件实现多线程高速下载大文件?
cdn版本的vue在网页中出现typeerror错误无法找到错误代码位置怎么办?
pywebview能否使用webrtc远程控制共享桌面和摄像头?
pywebview6.0如何让窗体接受拖拽文件获取真实的文件路径?
如何在linux系统中同时能安装运行apk的安卓应用?
python有没有离线验证码识别ocr库?
各家的ai图生视频及文生视频的api价格谁最便宜?
openai、gemini、qwen3-vl、Doubao-Seed-1.6在ui截图视觉定位这款哪家更强更准?
如何在linux上创建一个沙箱隔离的目录让python使用?
pywebview如何使用浏览器自带语音识别与webspeech 的api?