手机信号差与信号好时,耗电量差别有多大? 知乎用户 不同的无线环境下,手机耗电量应该是一个多项指标的综合值,那么先单纯的来说说手机射频的最低和最高的发射功率(这也是手机通信模块耗电的大头)。 2G:以 GSM 为例,3GPP TS45.005 规定在 900MHz 频段下最大 33dBm,最小 5dBm,在 DCS1800(上行 1700MHz 频段)下最大 30dBm,最小 0dBm。 3G:以 WCDMA 为例,根据 3GPP TS25.101 规定,在 Band1 下(上行 1900MHz 频段)的 Class1 型终端最大发射功率可达 33dBm,但是如今的手机基本不为 Class1,最大发射功率不超过 24dBm,最小发射功率 -50dBm。 LTE:根据 3GPP TS36.101 规定,最大发射功率 23dBm,最小发射功率 -40dBm。 有几点需要补充一下: 手机上所能看到的“信号格数”仅仅反应了当前的下行接收功率水平,除非进入到工程模式或者借助网优软件才能看到反映下行信道质量的指标(比如 Rx_Qual,Ec/Io,SINR 等等),这个指标显得尤为重要。简单说就是信号格数少未必信道接收质量就差,就像有人说话小声但是不意味着就口齿不清。 手机的发射功率与上行链路的信道质量关系密切,而用户感觉“信号差”往往就是 = 看到手机上显示的信号格数低,而刚才也说了,手机上的信号格数反映的仅仅只是下行信道的接收功率水平。退一步说,即使下行链路接收质量很差,但是并不意味着上行链路也很差,就像两个人说话,A 因为口齿不清或者背景噪音太大导致 B 听不清楚他在讲什么,但是不意味着 A 也听不清楚 B 在讲什么,比如 A 的听力灵敏或者是 B 嗓门大且口齿清晰。手机发射功率在业务过程中会受到基站的控制,无论是哪个系统,对于手机的发射功率都是能低就低的,以基站能听清楚手机在讲什么为界限,高了就命令手机降低发射功率,低了就命令手机抬升发射功率。比如 3G 和 LTE 中如果手机进行业务时的发射功率持续超过 0dBm,那么可以认为上行链路质量相对来说比较差,可能是距离基站过远 / 距离基站不是太远但是上行传输路径比较曲折 / 基站接收机或者天馈出现故障 / 有人非法安装了“手机伴侣”之类的信号放大器导致基站接收机底噪大幅抬升 / 手机本身故障等等原因。因此上面说的手机最大发射功率实际很少达到,不是说不能达到,而是一旦达到或者说逼近最大发射功率,说明此时上行链路已经差到基站要求手机“歇斯底里”的喊了,基本也处于通信中断的边缘了(掉话 / 掉线)。 上面主要是针对发射功率来说的,实际上耗电的并不只是发射功率,手机的基带单元和射频接收机处理数据基站发过来的信息也需要消耗能量,只是这些我不知道该怎么量化。而且个人也不清楚下行链路质量好和差时,对于手机基带芯片和接收机(比如 3G 中的 Rake 接收机)的耗能影响情况是怎么样的,所以暂时不表。但是可以肯定的是当手机在一个比较差的无线环境中,耗能是要相对高点的,因为不停的小区 / 异系统重选 / 切换以及抽取出微弱的有用信号肯定需要增加基带芯片和接收机的能耗。 最后就是发射功率每 3dB 差一倍,有兴趣的童鞋可以根据上面的数据算一下不同系统下手机最大和最小发射功率相差几倍。 查看知乎原文