从云端依赖到本地突围,边缘AI推理的“信号计算”新路径

财经摆渡人

精研出品

破浪前行,共探财富新局


大家好欢迎收看【古今财鉴】

现在咱们聊边缘AI推理,这东西听着像专业术语,其实就是手机、智能手表、传感器这些小设备要自己跑AI算法。

但老办法一直有个大麻烦,要么太依赖云端,要么本地扛不住。

最近有个新方案挺有意思用射频混频器搞分离式计算,据说能把这些难题一锅端。

传统边缘AI的“两难困境”

边缘AI的需求这几年越来越明显。

你想啊,智能家居要实时响应,工业传感器要本地分析数据,总不能啥都靠云端吧?但以前的路怎么走都别扭。

先说云端集中计算。

这玩法就是把数据传到云端,云端算完再把结果发回来。

听着简单,可用户一多就抓瞎。

比如智能手表测心率,几万人同时上传数据,带宽直接堵死。

更要命的是隐私,健康数据、家庭监控视频上传云端,谁敢保证安全?

那本地计算呢?就是把AI模型存在设备里,自己算。

可问题来了,手机还行,那些tiny传感器哪有那么强算力?模型稍微复杂点,存储就不够用,耗电还快。

我见过一个智能手环,为了跑个简单的活动识别,续航直接砍半,这谁受得了?

本来以为边缘AI只能靠硬件升级,没想到还能从信号处理上找突破口。

最近杜克大学团队整了个新活,用射频混频器搞“分离式计算”,思路清奇得很。

射频混频器,让边缘设备“不花钱”算力升级

这方案的核心是把“数据搬运”变成“信号计算”。

简单说,云端不用传数据,改广播模型参数;边缘设备也不用存模型,直接用射频信号算。

关键在哪?就在于那个不起眼的混频器。

你可能不知道,混频器这东西几乎所有带网络的设备都有,手机、路由器、传感器里都藏着。

它本来是解调信号的,本质是个“时域乘法器”。

现在科学家把它变了个身,射频信号里塞模型参数,本地设备用自己的信号当输入,俩信号一乘,直接在射频域把AI推理给算了。

这招高在哪?首先不花额外硬件钱,混频器本来就在那,不用加芯片。

其次省存储,模型不用存在设备里,广播过来直接算。

最绝的是能耗,无源元件干活,能耗低到“飞焦级”1飞焦是10的负15次方焦耳,几乎可以忽略不计。

当然,这里面有个技术细节。

无线信道会干扰信号,就像说话有回音。

科学家提前在云端测好信道情况,预调制一个“逆矩阵”,把干扰抵消掉。

就像戴降噪耳机,外界噪音进来之前就被中和了,挺聪明的。

实验数据说话,精度能耗双突破

光说不练假把式,人家搭了个测试平台。

用USRPX310当收发机,外接ZEM-4300+混频器,915MHz频率广播模型,25MHz带宽跑数据。

结果怎么样?

算向量内积,4096点的规模,精度能到5.5bit。

可能你没概念,这水平跑简单AI模型足够了。

MNIST手写数字识别,单全连接层模型能正常工作,三全连接层精度95.7%;AudioMNIST语音识别更狠,精度97.2%,能耗才2.8飞焦每次运算。

更厉害的是规模。

通过频域编码,一个混频器能算32768维内积,这在以前的模拟计算里想都不敢想。

而且多少设备都能同时算,只要在广播范围内,一千个一万个设备同步推理,带宽一点不增加。

这方案算是把边缘AI的几个死结都解开了。

带宽不用愁,数据不上传;隐私有保障,本地算完拉倒;存储不占地方,模型靠广播;能耗低到离谱,无源元件扛大梁。

当然,现在还在实验阶段,复杂模型能不能跑、抗干扰能力强不强,还得再看。

但这思路确实打开了一扇新门原来通信硬件还能这么玩,边缘AI不一定非要堆芯片。

未来智能手表、物联网传感器,可能真能靠这招实现“又快又省又安全”的AI推理。

这波操作,我觉得有点东西。

展开阅读全文

更新时间:2026-01-20

标签:科技   云端   路径   信号   边缘   混频器   模型   射频   数据   设备   无源   精度

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top