在Web浏览器中,直接使用MediaRecorder录制来自window.speechSynthesis(文本转语音)的音频流并不是一件直接的事情,因为MediaRecorder通常用于录制来自麦克风、摄像头或屏幕的媒体流,而window.speechSynthesis并不提供音频流接口。
但是可以通过屏幕录制getDisplayMedia实现,录制的时候选择整个屏幕,勾选同时分享系统音频。
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width,initial-scale=1.0,maximum=1.0,minimum=1.0,user-scalable=0" /> <title>BFW NEW PAGE</title> <style> </style> </head> <body> <button id="start">开始录制</button> <button id="stop" disabled>停止并下载</button> <script> const startBtn = document.getElementById('start'); const stopBtn = document.getElementById('stop'); let mediaRecorder, audioChunks = []; startBtn.onclick = async () => { // 请求屏幕+音频捕获权限 const stream = await navigator.mediaDevices.getDisplayMedia({ audio: true }); // 播放语音 const utterance = new SpeechSynthesisUtterance('正在录制我的声音'); window.speechSynthesis.speak(utterance); // 开始录制 mediaRecorder = new MediaRecorder(stream); mediaRecorder.ondataavailable = e => audioChunks.push(e.data); mediaRecorder.start(); startBtn.disabled = true; stopBtn.disabled = false; }; stopBtn.onclick = () => { mediaRecorder.stop(); startBtn.disabled = true; stopBtn.disabled = false; mediaRecorder.onstop = () => { const blob = new Blob(audioChunks, { type: 'audio/webm' }); const url = URL.createObjectURL(blob); const a = document.createElement('a'); a.href = url; a.download = 'captured-speech.webm'; a.click(); audioChunks = []; }; }; </script> </body> </html>
网友回复
如何编写一个chrome插件实现多线程高速下载大文件?
cdn版本的vue在网页中出现typeerror错误无法找到错误代码位置怎么办?
pywebview能否使用webrtc远程控制共享桌面和摄像头?
pywebview6.0如何让窗体接受拖拽文件获取真实的文件路径?
如何在linux系统中同时能安装运行apk的安卓应用?
python有没有离线验证码识别ocr库?
各家的ai图生视频及文生视频的api价格谁最便宜?
openai、gemini、qwen3-vl、Doubao-Seed-1.6在ui截图视觉定位这款哪家更强更准?
如何在linux上创建一个沙箱隔离的目录让python使用?
pywebview如何使用浏览器自带语音识别与webspeech 的api?