目前国内的机器人其实都是内置的动作指令,然后通过gpt大模型进行交互调用,没没法做到低延迟实时与大模型交互,比如折衣服,都是事先训练好的一套动作指令,当接收到折衣服指令的时候,机器人开始按照预定的轨迹来操作手臂,这套指令中包含视觉识别与定位,走路也是经过传感器获取数据经过内置的动作算法保持稳定,也就是虽然内置了大模型,但是大模型只是负责规划指令的操作顺序,无法接入动作指令的执行过程,如果像人类一样实时操作,那么还需要很长的时间要走。
降低大模型的延迟是后面ai急需解决的一个问题。
现在的人形机器人其实也只是拥有一个人类的外壳而已,如果像人类一样动作娴熟还有很长的时间要走。
网友回复
如何编写一个chrome插件实现多线程高速下载大文件?
cdn版本的vue在网页中出现typeerror错误无法找到错误代码位置怎么办?
pywebview能否使用webrtc远程控制共享桌面和摄像头?
pywebview6.0如何让窗体接受拖拽文件获取真实的文件路径?
如何在linux系统中同时能安装运行apk的安卓应用?
python有没有离线验证码识别ocr库?
各家的ai图生视频及文生视频的api价格谁最便宜?
openai、gemini、qwen3-vl、Doubao-Seed-1.6在ui截图视觉定位这款哪家更强更准?
如何在linux上创建一个沙箱隔离的目录让python使用?
pywebview如何使用浏览器自带语音识别与webspeech 的api?