
财经摆渡人
精研出品
破浪前行,共探财富新局
大家好欢迎收看【古今财鉴】
现在咱们聊边缘AI推理,这东西听着像专业术语,其实就是手机、智能手表、传感器这些小设备要自己跑AI算法。
但老办法一直有个大麻烦,要么太依赖云端,要么本地扛不住。

最近有个新方案挺有意思用射频混频器搞分离式计算,据说能把这些难题一锅端。
边缘AI的需求这几年越来越明显。
你想啊,智能家居要实时响应,工业传感器要本地分析数据,总不能啥都靠云端吧?但以前的路怎么走都别扭。

先说云端集中计算。
这玩法就是把数据传到云端,云端算完再把结果发回来。
听着简单,可用户一多就抓瞎。
比如智能手表测心率,几万人同时上传数据,带宽直接堵死。

更要命的是隐私,健康数据、家庭监控视频上传云端,谁敢保证安全?
那本地计算呢?就是把AI模型存在设备里,自己算。
可问题来了,手机还行,那些tiny传感器哪有那么强算力?模型稍微复杂点,存储就不够用,耗电还快。

我见过一个智能手环,为了跑个简单的活动识别,续航直接砍半,这谁受得了?
本来以为边缘AI只能靠硬件升级,没想到还能从信号处理上找突破口。
最近杜克大学团队整了个新活,用射频混频器搞“分离式计算”,思路清奇得很。

这方案的核心是把“数据搬运”变成“信号计算”。
简单说,云端不用传数据,改广播模型参数;边缘设备也不用存模型,直接用射频信号算。

关键在哪?就在于那个不起眼的混频器。
你可能不知道,混频器这东西几乎所有带网络的设备都有,手机、路由器、传感器里都藏着。
它本来是解调信号的,本质是个“时域乘法器”。

现在科学家把它变了个身,射频信号里塞模型参数,本地设备用自己的信号当输入,俩信号一乘,直接在射频域把AI推理给算了。
这招高在哪?首先不花额外硬件钱,混频器本来就在那,不用加芯片。
其次省存储,模型不用存在设备里,广播过来直接算。

最绝的是能耗,无源元件干活,能耗低到“飞焦级”1飞焦是10的负15次方焦耳,几乎可以忽略不计。
当然,这里面有个技术细节。
无线信道会干扰信号,就像说话有回音。

科学家提前在云端测好信道情况,预调制一个“逆矩阵”,把干扰抵消掉。
就像戴降噪耳机,外界噪音进来之前就被中和了,挺聪明的。
光说不练假把式,人家搭了个测试平台。

用USRPX310当收发机,外接ZEM-4300+混频器,915MHz频率广播模型,25MHz带宽跑数据。
结果怎么样?
算向量内积,4096点的规模,精度能到5.5bit。

可能你没概念,这水平跑简单AI模型足够了。
MNIST手写数字识别,单全连接层模型能正常工作,三全连接层精度95.7%;AudioMNIST语音识别更狠,精度97.2%,能耗才2.8飞焦每次运算。
更厉害的是规模。

通过频域编码,一个混频器能算32768维内积,这在以前的模拟计算里想都不敢想。
而且多少设备都能同时算,只要在广播范围内,一千个一万个设备同步推理,带宽一点不增加。
这方案算是把边缘AI的几个死结都解开了。

带宽不用愁,数据不上传;隐私有保障,本地算完拉倒;存储不占地方,模型靠广播;能耗低到离谱,无源元件扛大梁。
当然,现在还在实验阶段,复杂模型能不能跑、抗干扰能力强不强,还得再看。

但这思路确实打开了一扇新门原来通信硬件还能这么玩,边缘AI不一定非要堆芯片。
未来智能手表、物联网传感器,可能真能靠这招实现“又快又省又安全”的AI推理。
这波操作,我觉得有点东西。
更新时间:2026-01-20
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号