如何評(píng)價(jià)Google剛剛發(fā)布的 Gemini Diffusion? 會(huì)代替自回歸模型成為下一代模型嗎?

 新聞資訊     |      2025-06-17 23:50:12

首先谷歌的 llm diffusion 和之前發(fā)布的 llm diffusion (e.g Large Language Diffusion Models)不同. 它是在生成 token 后對(duì)已有的token做了refine. 關(guān)于這一點(diǎn)可以從發(fā)布的***demo看到. 在第一幀時(shí),生成的answer是錯(cuò)誤的. 到第三幀時(shí),生成了正確的answer. Large Language Diffusion Models 中的 diffusion 更像是 multi token prediction. 相比這種 multi token prediction. 谷歌的 llm diffusion 更優(yōu)雅,也更符合人類(lèi)的思考…。

如何評(píng)價(jià)Google剛剛發(fā)布的 Gemini Diffusion? 會(huì)代替自回歸模型成為下一代模型嗎?

上一篇:不懂就要問(wèn),為什么通訊如此發(fā)達(dá)的今天,還沒(méi)有完全解決進(jìn)電梯就沒(méi)信號(hào)的問(wèn)題?!

下一篇:為什么Dreamwe***er,F(xiàn)rontPage會(huì)被淘汰?