|
楼主 |
发表于 2024-4-12 07:45 AM
|
显示全部楼层
本帖最后由 Hutong9.net 于 2024-4-12 08:04 AM 编辑
网上评论:
1。光计算是胡扯滴。十个光通道,每一个都是穿透系数。这个系数随着使用事件会变化。也就是,garbage in, garbage out (GIGO).
为什么只有清华另辟蹊径?是因为其他的人不走这条死路。就像清华开发的自主驾驶自行车让摩拜单车自动回库一样,都是没有用的奇思妙想。
2.芯片发展方向是高算力高能效两者结合,这两点恰恰是太极芯的短板
所以这种理论性创新发文章提供思路有价值,但现实意义很小,商业化更没希望
3. 这个很牛!
去年11月3日,观网有个新闻《我国科学家研制出首个全模拟光电智能计算芯片》,当时清华大学研制出国际首个全模拟光电智能计算芯片,当时新闻最后说“目前团队仅研制出特定计算功能的光电融合原理样片,亟需进一步开展具备通用功能的智能视觉计算芯片研发,以便在实际中大范围应用。”
当时这个芯片虽然逆天(相同准确率下,比现有高性能GPU算力提升3000倍,能效提升400万倍,另外只需要百纳米级制程的成熟芯片工艺),但其主要是针对无人驾驶等特定应用场景。
现在仅仅经过半年多,这次团队实现160 TOPS/W的通用智能计算。
如果这个路线可行,将对现有传统架构的GPU以及依托其计算能力的AI模型学习和训练产生革命性的影响。
清华的光电芯片除了计算能力外,其实更加逆天的是其能效。说个题外话,今天看到的消息,据报道,爱尔兰、新加坡和荷兰的任何新数据中心建设的可用电力都已达到极限。英国国家电网负责人警告称,数据中心电力消耗在未来十年内有望增长 500%。
虽然是数据中心,但AI也一样,大规模降低能耗,是和提高计算能力同等重要,甚至更重要的紧迫课题。
“科研”离“技术”差着不知多少个华为和中芯长存
别最后成为噱头,那就太丢那所大学的脸了。 |
|