用鸽子送SD卡,是现代最高效的信息传递方式吗?
沃登克里夫塔工作原理示意图
由于特斯拉的实验保密程度比较高,加上射闪电的样子实在是有点诡异,各种各样奇怪的流言就传了出来。有说这个塔是在召唤外星人的,也有说这个塔是一种新型的充电设备,可以用电弧让周围的电器运转起来。
不过铁塔实际上的功能和这些都不沾边。在特斯拉的设想里面,这个塔其实是一个通信装置,类似无线电台。特斯拉觉得,如果闪电的能量足够大,就可以让信号穿过大气层,被远方同样设计的电塔接收到。
特斯拉的项目最终没有完成,巨塔也在1917年被拆掉了。对于热衷电子管朋克的人来说,这可能是个巨大的遗憾。但是从现实的角度出发,特斯拉的设想从一开始就注定不太可能成功。就算是高压闪电真的能够远距离传输信号,一般老百姓应该也很难同意在自己家附近建一个会滋滋作响的高压放电器。
想想就觉得辐射应该挺大(不是)
但是特斯拉的这种疯狂,也并不难以理解。人类想要远程传递信息,实在是太困难了。
我们都听说过马拉松的故事。希腊联军在马拉松战胜入侵的波斯大军,为了传递胜利的讯息,信使奔跑了40多公里回到雅典,据说他只来得及喊一声“胜利了”,就永远倒在了地上。
从那时算起的两千四百多年里,奔跑的信使逐渐变成了马匹和驿站,但是总体来说,想要把一个消息带到远方,最终还是脱离不了某种形式的人肉带话。直到贝尔在1874年发明了电话,才彻底宣告一个新时代的到来。
信息长久以来的这种稀有价值,使人们天生对更快更多的信息传输速度充满渴望,也不断尝试着用各种奇怪的黑科技手段来实现目标。这些尝试有的成功了,有些失败了。而特斯拉的超级电塔,只不过是人类通信历史里许多插曲的一段。
另一段疯狂的插曲发生在60年代,为了让阿波罗登月计划获得美国民众的支持,NASA想出了一个绝妙的主意:通过当时还非常新鲜的电视,向全美国直播宇航员在月球上的行动。
这个主意虽然好,但是有一个很大的问题。NASA专门花了十年时间为阿波罗计划研发了一套整合度很高的通信系统,但是这套系统一开始没有给电视转播留下位置。
权衡之下,NASA决定在现有的通讯容量中硬给电视信号挤出空间。于是阿波罗11号的测距功能被取消了,通信模式也从更适合移动设备的调相模式改成了类似广播电台的调频模式。
这项调整极大增加了登月舱着陆时坠毁的风险,但是也留下了700khz左右的通讯带宽,让阿波罗计划的宇航员就可以实时向地球传送每秒10帧的画面,让全世界都可以看着阿姆斯特朗从登月舱门口迈出人类的一大步。
快进到今天,在地铁里打开手机就能旁观千里之外陌生人的视频直播。互联网已经无所不能,那些上网加载一张图片就需要好几分钟的日子似乎都已经成了模糊的记忆。但是这不代表着喜欢研究黑科技的发明家们就偃旗息鼓,找不到更快捷的通信方式。
去年美国电子和电气工程师协会就做了一个测算:在最理想的情况下,一只鸽子能携带大概300张1TB的SD卡,每小时飞行速度可以到70-100公里。这样算下来,从北京到上海传输300TB的数据,用鸽子只需要大半天,而用200m的民用互联网则需要5个多月,鸽子完胜。
当然,鸽子虽然迅猛,但也存在很明显的缺陷。为国际互联网指定标准的互联网工程任务组(IETF)在1990年曾经发布过一个IPoAC标准提案。这个提案全称是“鸟类为载体的网际协议”,简单来说就是想要规范通过鸽子传递数据包的通信方式。
经过实验,鸽子的丢包率在55%左右,9只鸽子有5只没有送到目的地。也就是说,虽然鸽子送大数据的效率很高,但是为了确保数据能够送达,需要多用几只鸽子,增加不少成本。
鸽子可能有点夸张,但是亚马逊和谷歌等云服务厂商确实有卡车运数据的服务,不然很多业务光靠互联网得传上半辈子
玩笑话放在一边,造成这种现象的原因,系统外部的通信速度虽然变快了,但是系统内部的通信速度其实更快。数百Mbps的网速和十几年前相比已经突破天际,但是其实也就勉强能和传统机械硬盘的数据传输速度相比较。
真正用来处理和生产信息的设备,也需要数据之间的互通。而它们的数据吞吐量已经完全属于另一个世界,需要应对的也是完全不同的问题。
现代CPU一秒钟就要处理数百GB的数据。内存和CPU之间的物理距离只有几厘米。但是电信号在这几厘米间以光速穿梭,就会产生延迟,甚至还会受到外部电气干扰产生误差。这些延迟和误差虽然看起来微弱,但已经足以拖慢处理器的运行速度。为了克服这一点,CPU实际上都是将缓存直接放在芯片上,最大程度缩短信号传输的距离,才能保证CPU的运行效率。
现代CPU的缓存已经和处理器核心蚀刻在一起了,面积甚至比真正的运算单元还要大
对于普通人来说,一个更直观的体会,可能就是机械硬盘在电脑里的用途逐渐变少。在升级老旧电脑的时候,换CPU、增加内存,都不如把系统装在速度更快的固态硬盘上好使。
这并不是因为机械硬盘的速度太慢。恰恰相反,机械硬盘是普通人所能使用到的运行速度最快的精密科技之一。7200转的机械硬盘,盘片最外圈和磁头的相对速度高达100km/h,而磁头就要在这样的速度下准确找到一条不到1毫米宽的磁道。机械硬盘的运行速度已经达到了物理的极限。
只不过人们对通信速度的要求太高了,才不得不转向其它技术形式。固态硬盘没有活动部件,完全依靠电位来进行数据存储。在运行的时候更加稳定,也能实现机械硬盘由于物理限制而无法实现的超高速度。
用来生产数据的计算机效率的进化,最终结果就是数据的膨胀。十年前,500GB硬盘感觉能用一辈子,而现在,几TB的仓库说用完就用完。十年前,大部分人上网就是发发邮件,看看新闻。而到了今天,专职主播每天要向成千上万的观众推送十几小时的直播视频。2014年一项调查估算,整个互联网的数据总量大约在100万EB(1EB等于100万TB)左右。而六年过去,这个数值的末尾可能已经需要再添几个零。
人类如此高效率的生产和使用信息,导致管理这些数据都成为了一项艰巨的挑战。由于服务器运行时会散发热量,现代数据中心每年耗电有40%都是用在空调降温上。为了节省能量消耗,微软甚至尝试把服务器装在氮气密封的机房里沉到海底,用海水来给机房降温。这样的数据中心理论上靠风能和太阳能就能运转。既省了电费,也降低了数据中心的广义碳排放。
按照目前的趋势发展下去,到2030年,计算机和通信行业将最多消耗全球能量的五分之一,超过全球所有水电站发电量的总和。如果不采取措施提高能源使用效率,将会对现在的电力系统造成严重的负担。人类被数字信息的海洋淹没,而数字信息又沉在了现实中的海底,想想有点讽刺,又有点浪漫。
当然,往好的方面去想,正是因为数据的这种膨胀,普通人才能以更低廉的价格拥有更好的数字生活体验。
拿游戏来说,二十多年前的《索尼克3D》,程序员想尽了一切办法,才把一小段高度压缩过的简单开场动画塞进卡带里,而这已经是当年游戏机上的极致画面了。而在数据膨胀的今天,70-100GB容量的游戏已经非常普遍。无损格式的环绕声效,几个小时的高清甚至4K过场动画,把游戏的沉浸感推向了新的高度,而玩家们对此习以为常。
而且这样的体验还在进一步提升。新一代PS5主机已经全面进化到基于PCIE 4.0传输协议的SSD,也实现了更多过去想都不敢想的传输技术。几千万多边形的电影超高精度模型可以在游戏中调用,而两个光照和素材完全不同的场景之间甚至可以做到无缝切换。
这样的场景切换速度,过去只能在CG电影中见到
对于PC玩家来说,想要实现这样的效果还有点难,毕竟主机有着独家的软硬件优化,从底层功能去实现最优效果。到了硬件配置千差万别的PC上,必然会受到各种掣肘。但随着技术的提升,新时代的固态硬盘性能也越来越满足用户苛刻的数据储存需求。这也许不是数据膨胀时代的终极答案,但至少是迈向未来的坚实一步。
热门相关:诡秘之主 原配宝典 蜜婚娇妻:老公,超疼的 倾世宠妻 超凡玩家