Googleの研究者が、大規模言語モデル(LLM)に無限の長さのテキストを処理させる手法だという「Infini-attention」に関する論文を発表しました。 [2404.07143] Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention https://arxiv.org/abs/2404.07143 Google’s new technique gives LLMs infinite context | VentureBeat https://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-context/ Google Demonstrates Method to Scale Languag