第108章 烤烤你的呀 (第2/2页)
希小虎听完这个补丁版本的核心脉络,喜笑颜开。先前的怀疑如烟消云散,再也不提。
一把揽过孟繁岐的肩膀,道:“你这两个东西做出来,顶得上有的组一年的成果了!”
“虎总不问基础问题了?”孟繁岐也乘机打趣道。
“唉!这叫什么话。”希小虎一摆手,“我随便考考你的呀!”
两人哈哈一笑,前面微妙的地方就算是揭过了。
“另一个方向则是对新版AI的引入了。”孟繁岐自然不会忘记自己的老本行,移动端适配的判断与AI关系不大,而这个解释模型则能够引入更多的因素去综合判断某一次搜索的相关结果。
这个属于非常重要的技术突破,孟繁岐明年还会开发Transformer和伯特(BERT)方法,也就是ChatGPT的T。
到时候对这个解释模型还会有继续的升级。
即便孟繁岐一年多后离开谷歌,这个算法也会持续地迭代下去。
甚至可以说,它是一个非常低配版本的Bing大小姐(GPT-4内核),有一定的语言理解能力足以帮助搜索引擎更好的理解用户的搜索语句。
不过还不具备任何看起来像智能的功能,也就没法真正和用户对话。
希小虎现阶段对AI的理解不是那么的充分,此时的语言模型基本上以时序类模型为主,也都是有一定年头的老技术了。
因此他多少还是知道一些:“时序类语言模型理解语句可能确实不错,但用在这么大的体量,会不会太慢?”
所谓时序模型,就是一个时刻的模型计算可能需要联系前后文,没有办法独立的进行运算,因此也就极大地限制了运算的并行。
本来一个人做一百题确实很慢,但一百人做一百题,那就是百倍速度的提升。
可若是第二题一定要第一题的答案才能做,那就没办法了,只能干等。
所谓一核干活,七核围观,说得便是类似的情况。
在这样的背景下,即便谷歌计算资源够多,也还是不好处理这个运算时间的问题。
要知道搜索时的延迟,那可比打开网页时候的延迟要命多了。
“虎总忘记我的老本行是什么了?语言模型的并行问题,我当然是有了想法才会提出这个计划。”论推荐广告,孟繁岐的细节远远不如希小虎扎实稳健。
但要说AI方向的突破,强如希小虎这样的大佬也远远不是孟繁岐的对手。
而孟繁岐这次准备的推荐广告三板斧,除了前面两个专注于移动端优化,和搜索词理解优化之外。最后一个弗雷德算法则是专门惩罚性质的方法,它的效果最立竿见影。
“我的最后一个算法策略,专门在搜索结果中寻找低价值内容和各种欺骗性广告以及各种会员链接。以最严厉的惩罚方式,来迫使网站倾向于高质量原创内容和优质的用户体验。”
至此,谷歌在19年前的几个主要推荐广告算法的基础框架已经被确立。
只待孟繁岐去开发完成。