格兰菲科技:GPU和显卡有什么关系?
原始的显卡一般都是集成在主板上,只完成最根本的信号输收工做,其实不用来处置数据。跟着显卡的敏捷开展,就呈现了GPU的概念,显卡也分为独立显卡和集成显卡(见附1)。
什么是GPU?
GPU那个概念是由Nvidia公司于1999年提出的。GPU是显卡上的一块芯片,就像CPU是主板上的一块芯片。那么1999年之前显卡上就没有GPU吗?当然有,只不外那时候没有人给它定名,也没有引起人们足够的重视,开展比力慢。
自Nvidia提出GPU那个概念后,GPU就进进了快速开展期间。简单来说,其颠末了以下几个阶段的开展:
1)仅用于图形衬着,此功用是GPU的初志,那一点从它的名字就能够看出:Graphic Processing Unit,图形处置单位;
2)后来人们发现,GPU那么一个强大的器件只用于图形处置太浪费了,它应该用来做更多的工做,例如浮点运算。怎么做呢?间接把浮点运算交给GPU是做不到的,因为它只能用于图形处置(阿谁时候)。最随便想到的,是把浮点运算做一些处置,包拆成图形衬着使命,然后交给GPU来做。那就是GPGPU(General Purpose GPU)的概念。不外如许做有一个缺点,就是你必需有必然的图形学常识,不然你不晓得若何包拆。
3)于是,为了让不懂图形学常识的人也能体验到GPU运算的强大,Nvidia公司又提出了CUDA的概念。
什么是CUDA?
CUDA(Compute Unified Device Architecture),通用并行计算架构,是一种运算平台。它包罗CUDA指令集架构以及GPU内部的并行计算引擎。你只要利用一品种似于C语言的CUDA C语言,就能够开发CUDA法式,从而能够愈加便利的操纵GPU强大的计算才能,而不是像以前那样先将计算使命包拆成图形衬着使命,再交由GPU处置。
重视,并非所有GPU都撑持CUDA。
CPU和GPU的关系
在没有GPU之前,根本上所有的使命都是交给CPU来做的。有GPU之后,二者就停止了分工,CPU负责逻辑性强的事物处置和串行计算,GPU则专注于施行高度线程化的并行处置使命(大规模计算使命)。为什么那么分工?那是由二者的硬件构成决定的。
能够看出,CPU是“主(host)”而GPU是“从(device)”,GPU无论开展得多快,都只能是替CPU分管工做,而不是代替CPU。
附1:独立显卡和集成显卡的区别。
所谓集成,是指显卡集成在主板上,不克不及随意改换。而独立显卡是做为一个独立的器件插在主板的AGP接口上的,能够随时改换晋级。
别的,集成显卡利用物理内存,而独立显卡有本身的显存。一般而言,同期推出的独立显卡的性能和速度要比集成显卡好、快。
值得一提的是,集成显卡和独立显卡都是有GPU的。
格兰菲智能GPU部分源于上海兆芯的GPU团队。该团队是国内成立最早,系统最完全的图形处置器设想及研发步队。研发部分涵盖架构、前端设想、后端设想、系统工程、软件及测试,梯队完全健全并具有芯片量产的丰富体味。GPU团队曾经发布的次要产物包罗: 独立显卡芯片, X86-SOC以及Arm-SOC展现芯片,笼盖独显、嵌进式以及挪动端市场,称心客户的多样化需求。