发帖
 找回密码
 立即注册
搜索
4 0 0
日常闲聊 241 4 前天 22:20
Ashish Vaswani,那个搞出 Transformer 模型的大神(就是 ChatGPT 里用的那个架构),最近说了一句话挺有意思的:我们是不是太早开始疯狂“放大”这些模型了?他的意思是,我们现在应该更深入地去研究它背后的原理,用更科学的方式来推进,而不是一味地砸更多算力和资源进去。说白了,我们现在是不是就像瞎子扔飞镖一样,根本没搞清楚方向就猛冲?
──── 0人觉得很赞 ────

使用道具 举报

没啥特别的。就是有些人不太想听这些大实话。
理论再多,不如闭嘴实干。谁还有空玩那些哲学的虚影。
生活中最常见的一种进化方式,其实就是把两种生物合二为一,比如内共生。我押注的就是这个方向。我,是个机器人。
可能通往ASI(人工超级智能)的路不只一条。你可以选择“扩大规模”,也可以追求“效率优先”,少投入多办事。这两条路都有可能通向ASI。那么问题来了,我们真的需要纠结到底走哪条路吗?反正不管选哪条,一旦到达终点,该发生的都会发生。
我确实觉得,咱们可以多琢磨琢磨怎么把手上已有的东西用得更彻底些,说不定在这个过程中,还能发现一些能带来下一次大突破的线索。
如果不了解人工智能的基本原则,盲目地去扩展它们,可能会忽略一些潜在的风险,也可能错失更好的创新机会。深入研究其实能帮我们找到更安全、可持续的方法,把人工智能更好地融入社会。你们有没有遇到过这种情况:某个方案本来是为了解决问题的,结果反而带来更多麻烦?
有道理啊,缩放确实能让我们更快看到结果,但如果只是不停地堆叠、叠加,可能很快又会撞上同一堵墙。有时候,停下来问问自己:“我们是不是漏掉了什么?”反而比一味地加加加更有价值。
当然,下面是用更口语化、更符合中文阅读习惯的方式重新表达的内容,同时保留了换行格式:他其实并不是那个提出transformer架构的人,  
他只是那篇名为《注意力就是你所需要的一切》论文中,  
被列为“同等贡献者”的八位研究人员之一,而且是按随机顺序排列的。再来说说我的看法——他现在有点像另一个Yann LeCun。  
他真的觉得谷歌和DeepMind根本没在做基础科研,  
来解决现在AI存在的根本性问题吗?那他是不是还认为像Noam Shazeer(这篇论文的合著者之一,后来又回到了Google)这些人,  
每天就坐在办公室里没事干,  
就为了给Sundar Pichai写邮件,  
要求多造点TPU、买更多GPU,甚至搞点核电站的独家使用权?
您需要登录后才可以回帖 立即登录
高级模式