https://mp.weixin.qq.com/s/kq5F47N3LS43ZKdwe9-CUQ
端侧智能存算一体芯片的需求、现状与挑战
https://zhuanlan.zhihu.com/p/480612865
存算一体技术是什么?发展史、优势、应用方向、主要介质
https://zhuanlan.zhihu.com/p/522755103
存算一体芯片设计与编译器开发
https://zhuanlan.zhihu.com/p/444859995
阿里达摩院最新存算芯片技术解读
https://www.zhihu.com/question/623317319
存算一体芯片的技术壁垒是什么?
llm对内存的极致需求并不是只因为权重更大了,所以你不能简单理解成芯片也scaling到一个很夸张的规格就又能体现架构的优势了。
传统NN主要就是权重,剩下的内存需求基本都是计算产生的中间结果,通过存算一体搞个weight station,再用数据流极致减少相邻层之间中间结果的暂态尺寸,最后再靠DSA疯狂叠算力把吞吐拉爆,这当然是个美好的故事。
今天infra层面是反过来的,我的机器有多大内存,权重占用是固定的先刨掉,7B模型就7GB,70B模型就70GB,稍微留微乎其微的一点点给inference的层间中间数据消耗(这部分才是数据流狂吹的优化空间,可惜根本不重要),剩下的几十到几百GB的内存几乎就全放kv-cache了,根据剩下的容量倒推能做多大的上下文长度,以及并发度做多高,很多情况下要把并发度降低到1来保证长上下文指标,如果还是满足不了,只能诉诸于各种压缩了。
LLM的访存特征并不复杂,权重是所有请求所有Token都共享的,也是固定大小的内存占用量,一般是1GB~100GB量级,取决于模型规模,KV的内存占用量则是和模型相关,也和上下文长度成正比,并且每个请求独立的,并发的请求越多,KV需要占用的存储越大。今天在100GB~1TB区间上极限也就是做到100K量级的上下文长度,此时并发度往往是个位数甚至1。这个是很恐怖的,因为并发度提升一个数量级,或者上下文长度提升一个数量级,需要的KV存储也直接提升一个数量级,奔着1TB~10TB去了。
SRAM6T物理结构实在是shrink不下去的;相较1T1C(1晶体管+1电容)DRAM的单位面积/成本是相当昂贵的,相校垂直堆叠走线的HBM也要至少昂贵2X-3X;虽然SRAM的速度相较HBM3更快数倍。
常规AI芯片最大的带宽压力(HBM带宽问题),在Groq这种架构上都转换到了内部的SRAM上,但是因为集群内的芯片级联以及计算效率提升,groq就无需再访问HBM。
Groq这颗芯片相当于放弃了传统的主显存,而是用更大的L3/L4 cache作为替代,容量/带宽比极高,指令发射密度可以拉得很高,且可能通过2D Systolic Array补偿大吞吐流水线,弥补容量局限。但是与片外主存交互的load/offload cycle仍会慢下来,同时搬运效率也受限于这一段的bandwidth。
这种选择一个很尴尬的地方在于,内存带宽选择的sram是芯片内的尺度,而互联又不可避免走向更低速的芯片间、甚至板卡间、服务器间的尺度,互联自然远远跟不上内存带宽,从而把内存的优势打回原形。
大家一致认为目前的HBM看起来不是一个最好的solution,应该会被hybird bonding stacking dram或CXL memory取代,一个替换HBM近程,一个替换远程。
MOE算是稀疏化了权重,每个Token只访问了可能和这个请求更相关的权重,这样用更少的访存量就可以获得接近的权重质量,因为Token感受野里的世界理解以及上下文相关度更高。
KV的稀疏化未来大概率也会爆发,当上下文长度飙升到M甚至G量级的时候,只访问其中相关度更高的子集来减少访问量,其实一定程度类似于我最前面写的几年前对于神经图灵机这种精细化管理的理念。
https://www.zhihu.com/question/645010090
Groq公司推出的全球最快的大模型推理服务达到每秒输出500个token,如何看待这一技术?
https://zhuanlan.zhihu.com/p/683873553
TSP: LPU(Language Processor Unit) 成名绝技
https://zhuanlan.zhihu.com/p/683359705
LLM推理到底需要什么样的芯片?(1)
https://zhuanlan.zhihu.com/p/683908169
LLM推理到底需要什么样的芯片?(2)
https://zhuanlan.zhihu.com/p/557933130
从2022新公开的特斯拉机器人Dojo芯片架构信息到存算一体
CGRA:Coarse Grained Reconfigurable Array
FPGA:Field Programmable Gate Array
FPGA主要是由以LUT和MUX为基础构成的门级可编程逻辑块构成的。
CGRA是coarse-grained的粗粒度,它是编程重构ALU阵列而非逻辑门阵列,因此很多的运算由硬核实现,不是LUT搭真值表。
https://www.zhihu.com/question/407417134
CGRA和FPGA有什么不同?
https://mp.weixin.qq.com/s/Cy_vb0PpcvGTDmlMt1VkSw
从GPU、TPU到FPGA及其它:一文读懂神经网络硬件平台战局
https://mp.weixin.qq.com/s/DnurlGgd5q4Fwjxy3YnIrQ
当数据库遇见FPGA:X-DB异构计算如何实现百万级TPS?
https://mp.weixin.qq.com/s/H_KnHQ6AzCNFqmW8uDj1rA
基于FPGA的深度学习加速器综述:挑战与机遇
https://mp.weixin.qq.com/s/acAbNP_ERnKlL3_9v_mwow
FPGA:AI ASIC的必经之路?
https://mp.weixin.qq.com/s/K_dohaZbCISZlxe1Utu50w
如何用FPGA加速卷积神经网络(CNN)?
https://zhuanlan.zhihu.com/p/152167194
两大FPGA公司的“AI技术路线”
2018.8
深鉴科技是一家AI Chip公司。成立于2016年3月,2018年7月被Xilinx收购。
深鉴科技与云天励飞、寒武纪和地平线共同被称为“天寒地鉴”的中国AI芯片四小龙。
官网:
http://www.deephi.com/
姚颂,1992年出生,2015年毕业于清华大学电子工程系。曾任深鉴科技创始人&CEO,现担任东方空间联合创始人&联席CEO。
如果说2017年以前的AI Chip领域,主要解决的是芯片有无的问题的话,那么2018年的重点就聚焦在如何更好的使用上了。
性能方面各家各有千秋,即使不考虑功耗、面积等约束,也没有哪家在所有运算上,都比别人快,因此产品只要不是全面落伍,就还有的混。但易用性方面差距就比较大了。
1.CPU+NN混合编程。深鉴这方面做的还不错,似乎一套工具链就可以搞定,就是不知道自动化程度如何。有的友商连这一步都没做好,两套工具链+手动链接,把应用工程师折腾惨了。
2.模型压缩。Pruning方面由于有韩神的加持,确然做的很好,比我司强。Quantization方面,INT8量化算是最基本的量化了,不知道UINT8/INT16,他们做的如何。
3.Tensor Processor。深鉴这方面似乎是空白,这导致的一个结果就是AI Chip支持的运算非常有限,CPU负载过高,而AI Chip的负载相对就不行了。
4.模型导入。这方面深鉴只能说还不入流。虽然表面看来,它支持了Caffe和Tensorflow。然而它的支持方案是修改源代码。。。众所周知,pb文件的易用性是建立在通信双方使用同一套协议的基础之上。但目前AI领域魔改成风,跑个开源模型,还必须要下载作者魔改版的Caffe。。。可以想见深鉴这方面的自动化程度一定不咋样,肯定有很多手工活要做。
那么正确的做法是什么呢?参见ONNX。我司的方案比ONNX略早,但思路基本一致。
5.Model Zoo。这个比较寒碜了,只有三个模型,而且还都是最简单的分类模型。不过从支持Inception v1来看,应该是掌握了加速分支网络的技巧。其他的Face Detection等只有视频,没有模型,似乎还处于实验室阶段,可能易用性还有待提升。
无耻的谈一下我司的Model Zoo。包含40+的模型,涵盖图像分类、目标检测、图像分割、人脸识别、超分辨率、OCR等。目前,主要往RNN、Attention方面发展。这里会遇到循环结构的问题,还没有做的太好。
目前的AI Chip战争,入局的玩家基本都解决了芯片有无的问题。体系结构的红利也吃的差不多了,在未来几年不大可能再保持目前的算力增速。因此,未来争夺的焦点将转向软件方面。实际上,今年以来,已经有客户拿友商产品性能来压我们。然而也就是压一下而已,让他弃用他肯定不干。原因无他,我司80%的功能都已经自动化,没人会和好用过不去。
2021.11
最近国内比较火的AI芯片初创公司已经换成了:
某牛点评:
做一个ASIC其实目前真没有什么大的门槛,不然你以为上海那么多家的ASIC公司是怎么来的,随便拉几个人都敢成立ASIC公司,还不是门槛不高,你让他就那几个人搞个CPU和GPU试试。但是要做一个好的ASIC,适配模型和场景丰富的ASIC,是非常不容易的。而且一旦模型场景丰富,你就不仅仅是在硬件领域所谓的PPA各种挣扎,你还需要在指令级别,或者说通用和性能做妥协,甚至架构上的一些妥协改变。
2024.9
象帝先由于资金链断裂,停止运营。
现在,计算芯片是越做越大,在早先的PC中,最大的芯片无疑是CPU了。但现在高端显卡芯片的面积已经超越CPU了。
Cerebras在这方面更为极端,它的芯片采用了一整张300mm晶圆,将40万个内核,1.2万亿个晶体管,46,225平方毫米的硅和18GB的片上存储器,全部集成在一个与整个晶圆一样大的芯片中,大到令人难以置信。
其实Nvidia的芯片也有越来越大的趋势:
超大芯片主要有两个问题:
良品率问题。这个问题可以通过冗余设计来解决。比如Intel的i5、i7实际上都是同一批生产出来的。如果所有核都OK,那就是i7;否则的话,屏蔽不好的核,这就是i5,因此i5常有6核这样的奇怪数字出现。
散热问题。
参考:
https://mp.weixin.qq.com/s/Zsmvsy8I_qKZWrONj9Juuw
史上最大芯片正式推出世界最快AI计算机:1/30体积、1/5功耗、3倍性能!谷歌TPU V3在它面前就是“渣”
https://mp.weixin.qq.com/s/nGzDVR9dlF-jL4ZIkss0Ow
这家用一整块硅片做AI芯片的公司成功了?
您的打赏,是对我的鼓励