第八章 回程的收获(1 / 1)
推理服务器!ai处理器!信息整合!
这就是秦枫此次参加交流会的三大收获。
推理服务器,支持多种开源框架,还能以流媒体的形式,做到模型集成,并且请求大小比传统服务器更小,服务吞吐比传统更大。
最重要的是,推理服务器可以部署各种自定义的ai模型,并且支持多个模型运行在显卡上。
ai处理器,也叫人工智能芯片,通常搭载了各种神经网络,来实现各个场景的ai赋能。具体的因为涉及各种过于先进的技术,秦枫也听的晕晕乎乎的,反正就是一个字,牛批。
处理器不管怎么说也是纳米级的高科技玩意,这东西秦枫目前还没办法碰瓷,不过倒是可以想办法薅一点处理器的架构来学习一下。
有了这两件法宝,就能做到第三件事:信息整合。
以往的处理器,即使再先进,性能再强悍,也不能实际意义上地“一心多用”。在同时处理各种任务时,它往往是以一个极快的频率在两个任务之间来回跳,1秒处理任务a,然后1秒处理任务b这样,因为强大的性能缩短了频率,所以看上去好像在同时处理一样。
所谓信息整合,其实是一种同时搜索的能力。
举个比较浅显的例子来说,现在有一堆文件夹,其中每个文件夹中的内容都有一些需要的内容,需要建立不同的搜索检引来提取这些内容,然后把这些内容复制到一个新的文件夹里。并且随时可能会出现的新的文件夹,也就是突发状况,要求是必须无条件优先处理突发状况,把新的文件夹里的有用文件搜索出来。
传统处理器只能一个文件夹一个文件夹地搜索,就跟我们平时用电脑一样。比如说我要把“视频”文件夹里混入的图片转到“图片”文件夹,把“图片”文件夹里混入的视频转到“视频”文件夹,这不管怎么说也是需要分步进行的。
并且,一旦有突发状况,就必须中断当前搜索去执行突发状况。哪怕你目前的搜索进度已经跑到了99%,等你处理完突发状况再回来搜索时仍需重新从%开始跑,浪费时间。
因此,传统处理器还对排序算法有硬性需求,它要分清楚先处理什么文件夹、后处理什么文件夹,并且能够允许插入。
但是信息整合下就不同了。不论多少文件夹,它总是能够同时处理,哪怕紧急插入了一个任务,也一样可以同时处理。就好像我们平时下载东西那样,可以同时下载好多东西,根据下载内容的大小不同,完成的时间也有先后。
效率的重大突破!
秦枫在回程的火车上心神久久不能平静,甚至有种立刻打电话回公司开始采购的欲望,不过考虑到今天已经是3号星期天,明天五一公司要去华山团建,还是决定将此事暂缓一周,自己也沉淀几天,先把各种需要的知识了解、学习一下。
鸟枪换炮,就在五月!
就在这时,脑海里乌梢的声音传来:“小友,这次大会我看你似乎有不少收获。不妨先休息几天再去华山,到时余可送小友一桩机缘。”
秦枫不解:“为啥啊?过几天去华山有什么原因吗?”
“也不怕小友提前知道,这个时间点去华山,刚好赶上一年两次的祭山灵,到时候山灵现身,对你我都有莫大好处,小友就放心吧。顺带,这几天余亦打算把那御气飞行的法门授予于小友,小友刚好可以趁几天熟悉熟悉。”
“那岂不是意味着我可以飞过去了?哇!”
乌梢笑了笑,没有说话。