算力催化生成式AI 百工百业迎来创新

行业动态
分享至
评论

  今年以来受到人工智能(AI)题材的发酵,让上半年成长股优于传统价值股表现,其中英伟达(NVIDIA)迄今更是屡创新高。其共同创办人暨执行长黄仁勋之前在台大毕业典礼的演讲已经掀起一股热潮,现在他成了教父级人物,连他身上的皮夹克都是话题。

算力催化生成式AI 百工百业迎来创新

  英伟达最先是以游戏显卡起家,后来独具慧眼的走入独立图形处理器(GPU)领域,创造领先地位。AI的发展,一直需要很大的算力。最近通用计算GPU的出现,不仅用来处理图形,而且协助中央处理器(CPU)分担工作,它的应用变得更通。这也是资料中心最新发展的服务。

  因此英伟达今年第一季的财报5月下旬公布时显示贡献最大的是“资料中心”,年增由上一季的11%加速到14%。其他三大业务:游戏显卡与专业视觉两项已走出了库存修正的阶段,另较新的汽车业务产品线,增速略微放缓但仍创历史新高。当时对第二季营收展望“辗压”市场共识,同时预测毛利率将进一步增大,因此盘后飙涨超过26%。而最近英伟达又再受惠于AI 浪潮,投资人押注其将成为AI的大赢家,股价在6月20日又创了新高,再来就是高点小幅震荡。

  算力的重要性,主要是2010年以后大数据的发展使用神经网络的深度学习模型,在图像识别、语音处理、自然语言处理等领域取得了显着的成果。近几年更进一步的发展是生成式AI,其模型刚开始利用深度学习的卷积神经网络(CNN)和循环神经网络(RNN)及其变体,如长短期记忆(LSTM)和门控循环单元(GRU)处理序列数据,并以最大几率生成合理性的新内容。晚近更新的生成对抗网络(GAN)、变分自编码器(VAE)和转换器模型通过学习现有数据的分布和特征,更能够生成与之相似的新数据。

  今天在许多情况下,Transformer模型已开始取代CNN和RNN。该模型是使用注意力的数学技术,它可检测一个系列中以微妙方式相互影响和相互依赖的资料元素,甚至是模糊的资料元素,而无须使用加上标签的学习,让模型在海量资料中更快速的运行。

  生成式AI有名的范例就是ChatGPT。ChatGPT通过学习庞大的文本数据,能够生成自然流畅的对话回应,尤其它的灵活性成为一个通用的对话,能够适应不同的应用场景,包括客服、教育、辅助创作、技术支持、问答系统等多个领域。但背后就是使用Transformer做成的GPT3.5代模型。

  就第一代GPT1模型来说,预训练的数据量达到约5GB,使用到的参数接近1.2亿。第三代GPT3预训练的数据量暴涨达到45TB,而参数量也升级到1,750亿。GPT3.5代模型,甚至今年3月公布的GPT4,数据量及参数量一定更大,其预训练和运行需要更大量的算力。

  英伟达的GPU有自己的内存和控制逻辑,不断改进的硬件架构和新技术的引入,例如平行处理、向量计算,造成计算能力非常强大,早已执业界之执牛耳。尤其英伟达GPU特殊的硬件加速器和相应的软件库让竞争对手看不到车尾灯。这些技术能够处理更复杂的模型和更大规模的数据量,使得训练和推理过程更加有效率。

  众所周知,由于芯片已经进入纳米等级而达到物理的极限,摩尔定律将逐渐失效。但高科技产业因为AI的发展,还是一片火红。未来会怎么走?黄仁勋说:“没有人工智能,我们已经无法建造出GPU ” ,…,“以GPU为首的加速算力已取代CPU,并在今(2023)年与生成式AI结合,未来将进入全新的计算时代”。

  的确,未来生成式AI将应用到各行各业,就如早年电力的穿透,不但带来各式各样的创新,而且因为生成式AI也产生更多有用的工具,降低创新的门槛。因此未来人类世界将很快达到“奇异点”:人工智能就开始胜过人类智能。不过这个前提还是需要有配合的算力。目前生成式AI非常需要英伟达主推的加速计算,而且这个依赖,看起来还会延续很长的一段时间。

THE END

数码评测