技术对体验的影响 - 运算力篇
1965年,英特尔联合创始人戈登·摩尔观察到,微芯片上每平方英寸的晶体管数量每年会翻一番,同时成本却减少了一半,这个观察结果被称为摩尔定律。摩尔定律意义重大,因为它意味着随着时间的推移,计算机会变得越来越小、运算能力越来越强、计算速度越来越快。整个半导体行业按照摩尔定律发展了半个多世纪,驱动了一系列科技创新、社会改革、生产效率的提高和经济增长。个人电脑、因特网、智能手机等技术改善和创新都离不开摩尔定律的延续,今天我们聊一下运算能力每一次质的飞跃对于用户生活和体验的影响。
** 64位CPU的出现 **
2003年9月23日,AMD正式发布了全球第一款面向桌面级用户的64位处理器Athlon64,10年后苹果在2013年苹果发布会上发布了首款应用在智能手机上的64位系统芯片A7。在此之前,我们用的电脑和手机上的芯片都是32位处理器,那么,32位和64位CPU有哪些具体差异呢?
1.据百度百科记载,CPU的“位”是指一次性可处理的数据量是多少,1字节=8位,32位处理器可以一次性处理4个字节的数据量,依次类推,64位处理器可以一次性处理8个字节的数据量, 运算力提升了一倍。 。
2.CPU的升级意味着操作系统可以从32位系统升级为64位系统,32位操作系统的最高内存容量是4GB,而64位系统的最高内存容量是32GB,内存容量整整提升了8倍,超大的内存容量这意味计算机卡顿事件将大幅度降低。同时64位操作系统能更好地满足三维动画、视频编辑和创作,以及科学计算和高性能计算应用程序等领域中需要大量内存和浮点性能的用户需求。
** 多核CPU的出现 ** 内核是CPU最重要的组成部分,CPU所有的计算、接受/存储命令、处理数据都由内核执行,内核数量越多,代表着CPU所能处理的数据和任务越多。那么多核CPU对体验的影响在哪里呢?
第一种是采用了线程级并行编程的应用程序,包括专业图像处理程序、视频编缉程序、动画制作程序、游戏、还有一些日常应用程序。例如打开浏览器上网,看似简单的一个操作,实际上浏览器进程会调用代码解析、Flash播放、多媒体播放、Java、 脚本解析等一系列线程,这些线程可以并行地被多核处理器处理,运行速度大大加快。
第二种是多任务应用环境。简单理解的话,一个内核的CPU在任意一个时间点只能处理一个任务,那么X个内核的CPU就能在任意一个时间点处理X个任务,效率提升X倍。使用电脑时我们经常会在聊天的时候还会去浏览网页或者玩游戏看视频等等,这时候多核CPU就能充分发挥多核的优势,同时处理多个任务。
** GPU计算与并行计算 ** GPU计算是指同时利用GPU和CPU,加快科学、分析、工程、消费和企业应用程序的运行速度。GPU计算是英伟达在2007年推出的技术,它能将应用程序计算密集部分的工作负载转移到GPU,同时仍由CPU运行其余程序代码。现在绝大部分的人工智能技术都是通过GPU计算来实现,从用户的角度来看,应用程序的运行速度明显加快。
理解GPU和CPU之间区别的一种简单方式是比较它们如何处理任务。CPU由专为顺序串行处理而优化的几个核心组成,而GPU则拥有一个由数以千计的更小、更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。以下通过一个视频来直观感受一下GPU并行结算和CPU的差异究竟有多少:
云计算 云计算是继计算机、互联网后在信息时代又一种新的革新。那么,什么是云计算?从广义上说,云计算就是把许多计算资源集合起来,通过软件实现自动化管理,只需要很少的人参与,就能让资源被快速提供。把所有的计算任务放在云上已经被证明是一种有效的数据处理方法,以下是云计算的一些优势:
1.云计算能有效降低计算机和软件成本,不需要程序员考虑过多资源部署,越来越多的小型公司做到降本增效的同时试错成本大幅度降低。
2.云计算的运算能力远远超过了每一台本地计算机的能力,去除运算能力的瓶颈。
3.云计算提供了几乎无限的存储空间,它能够安全、稳定地保存用户数据,用户可以随时随地访问自己的数据,同时公司可以通过现有的大数据分析更新迭代现有的业务。
4.云计算为多人协作模式成为可能。多位用户可以轻松协作处理同一个文档和项目,而且不必担心自己创建的文档与其他用户的应用程序或操作系统发生兼容问题。
边缘计算 随着边缘数据的增长,数据传输的速度成为云计算模式的瓶颈,网络带宽已经跟不上快速发展的运算速度。例如自动驾驶,每秒产生一千兆字节的数据,它需要实时处理车辆做出正确的实时的决定,如果需要将车上的所有数据发送到云进行处理,则响应时间过长。在未来,几乎所有种类的电子设备都将成为物联网的一部分,除了汽车,还有街上的摄像头、路灯、家里的空气净化器,甚至是未来与互联网连接的马桶盖。
由物联网产生的原始数据将是巨大的,物联网又需要 实时的响应和反馈,所以物联网既 是数据的生产者又是数据的消费者。如果把全部的数据放在云端进行处理,这使得传统的云计算效率不够高,同时云计算无法处理所有这些数据。 在这种情况下,需要在边缘处处理数据,以缩短响应时间、更有效的处理和减缓网络压力,边缘计算由此而生。
其次,边缘计算还能保护用户的隐私。由于在网络边缘收集的物理数据通常是私有的,例如用户穿戴式设备产生的运动数据、或者是用户拍摄的照片和视频,在边缘处处理原始数据比将原始数据上传到云上能更好地保护用户隐私。
协处理器到NPU
如今智能手机已经堪比一台掌上电脑,之所以能完成形形色色的任务,一枚强劲的CPU是必不可少的。但事实上,还有一些看似不起眼的小部件在帮助CPU完成一些复杂的操作任务,它们的名字叫做协处理器。iPhone上我们习以为常的实时计算步数、抬腕亮屏、TouchID、“嘿 Siri”等人性化设计的背后都是协处理器的功劳。
那么协处理器的作用是什么呢?通俗点讲,协处理器的作用就是帮助CPU分担一些执行任务,比如光线、距离、重力传感器和陀螺仪等的数据处理。如果没有协处理器,那么上面提到的每一个传感器的数据处理器都需要“麻烦”CPU,这显然会增加CPU的功耗。本身智能手机的功耗控制就是个问题,如果CPU负担再加重,会放大手机的发热续航等问题。因此,协处理器虽小但对于整个手机体验的作用确实显而易见的。
2017年,华为和苹果同时在自家Soc(System on a Chip,系统芯片)里增加了一枚NPU,也就是一枚神经网络协处理器,它们分别是寒武纪1A处理器和Neural Engine,主要负责运行神经网络运算,包括深度学习、人脸识别、图像识别、语音识别、自然语言处理等等技术。同时,Google、Intel和英伟达同时推出了具有神经网络计算的Iot芯片,它们有效降低整体运算时间的同时为物联网、增强现实、语音交互等新方向打下夯实基础,以及降低数据上传到云端运算的必要性,解决了用户的隐私问题。
** 量子计算 **
尽管整个互联网发展的速度不断提升,然而持续了几十年的摩尔定律已经停下来了,到了2019年,实际结果与摩尔定律的预测相差了数十倍。基于当前的情况,传统计算模式的增长正在趋近瓶颈,因此我们需要找到一个新的计算模式来解决传统计算无法解决的问题。近几年关于量子计算机的研究发展迅速,包括Google、IBM和阿里。那么,什么是量子计算?
量子计算机是基于量子力学的基本原理实现信息处理的革命性计算技术。与0和1组成的经典比特不同,量子比特可以是0到1之间的任意值,可见量子比特所包含的信息比经典比特多得多。而且,按照量子系统的可叠加性,多个量子比特也可以并行处理运算。正是由于这些特殊的性质,量子计算机可以比传统计算机更有效地处理大量复杂的数据集,它将颠覆大多数行业,从电信和网络安全到先进制造、金融、医药等。
以电话簿为例,当你有一个特定的号码需要在电话簿查找时,传统的计算机会搜索电话簿的每一行,直到找到并返回匹配结果。然而量子计算机可以即时搜索整个电话簿,同时评估每一行,并比经典计算机更快地返回结果。还有以气候变化为例,由于气候系统的复杂性、看似无穷无尽的数据,以及对当今计算能力越来越趋向于瓶颈,没有一台传统的计算机(比如你的笔记本)能够百分之百准确地模拟地球的气候变化。量子计算机能够将大量的气候变量包括在内,创建数据驱动的模型,来帮助预测天气模式并为自然灾害做好准备。再以机翼设计为例,工程师们需要花费数年时间来模拟飞机机翼上空的空气流动过程,而量子计算机只需要几个小时来模拟机翼上空以各种角度和速度流动的每一个空气原子,就可以确定最佳或者最有效的机翼设计。
结束语 计算机的运算力每一次量变到质变都会对整个科技界乃至社会产生积极影响,未来的量子计算会彻底重构计算规则。人工智能的发展除了运算力外,还有算法和数据两个重要支柱,后续会为大家分享相关内容。
** 相关阅读 ** 深度学习能用于界面设计吗?
下一个人机交互的突破口在哪? 第五期采访:对话清华美院付志勇教授,在清华上学是一种什么样的体验?