一张草图直接生成视频游戏,谷歌推出生成交互大模型

人工智能和大数据

共 1614字,需浏览 4分钟

 ·

2024-04-11 08:48

专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

谷歌DeepMind的研究人员推出了,首个无需数据标记、无监督训练的生成交互模型——Generative Interactive Environments,简称“Genie”。

Genie有110亿参数,可以根据图像、真实照片甚至草图,就能生成各种可控制动作的视频游戏。Genie之所以有如此神奇功能,主要使用了3万小时,6800万段的游戏视频进行了大规模训练

并且在训练过程中没有使用任何真实动作标签或其他特定提示 ,但Genie可以基于帧级别的,使用户在生成的环境中进行各种动作控制非常强!

值得一提的是,Genie是一个通用基础模型,也就是说其学到的潜在动作关系、序列、空间可以应用在其他领域中。

论文地址:https://arxiv.org/abs/2402.15391

项目地址:https://sites.google.com/view/genie-2024/home

Genie功能展示

Genie的核心架构用了ST-Transformer(时空变换器)。这是一种结合了Transformer模型的自注意力机制与时空数据的特性,以有效处理视频、多传感器时间序列、交通流量等时空数据。

abfc683064c9d012ecb0ea1faf028223.webp

ST-Transformer主要通过捕捉数据在时间和空间上的复杂依赖关系,提高了对时空序列的理解和预测能力 ,主要有3大模块组成。

502468e678a0a8ff69e91850e3650006.webp将一张草图,直接生成可控的小游戏

ba254b59db14e0642dc2529b295cee05.webp
转化展示

视频分词器

这是一个基于VQ-VAE的模块,可将原始视频帧压缩成离散的记号表示,以降低维度并提高后续模块的视频生成质量。

63ae0f7ff4de724593352453dffdf78e.webp

这个过程类似自然语言处理中的分词,将连续的视频帧序列分解为离散的视频片段。

视频分词器使用了ST-transformer来对视频进行编码,并生成对应的视频标记。这些标记将作为后续动力学模型的输入,用于预测下一帧视频。

潜在动作模型

这是一个无监督学习模块,可从原始视频中推断出观察到的状态变化对应的潜在动作。并根据这些潜在动作实现对每一帧的控制。潜在动作模型通过对视频标记序列进行建模,学习到了不同帧之间的动作关系

0f90993ef6e4416b7ac2589fbf799a0f.webp

具体来说,潜在动作模型可以将一个视频标记序列作为输入,并生成对应的潜在动作序列。这些潜在动作序列可以用于控制生成环境中的每一帧,使用户能够在生成的交互环境中进行精确的操作。

动力学模型

主要基于潜在动作模型学习到的动作关系,根据潜在动作和过去的帧标记预测下一帧的视频。可以把该模块看作是一个预测模型,通过学习视频序列的动态变化模式,能够生成逼真的连续视频。

动力学模型的输入包括前一帧的图像表示和当前帧的动作表示 。为了将图像表示和动作表示进行融合,Genie采用了一个基于Transformer架构的编码器来对它们进行编码。

171f300dc803e71e7697ab289875d969.webp

在编码器中,首先对前一帧的图像进行编码,并采用了一种视频标记器的方法,将图像分割成若干个离散的标记,每个标记代表图像中的一个局部区域。这种分割可以帮助模型捕捉到图像中的空间信息。

75d54612ce84061147e801dbdd470b16.webp

当前帧的动作表示也通过编码器进行编码。动作表示可以是离散的动作类别或连续的动作向量,具体的形式取决于具体的应用场景。

编码器将动作表示转换为一个固定长度的向量,以便与图像表示进行融合。在获得图像表示和动作表示的编码后,它们被输入到动力学模型中进行预测。

本文素材来源Genie论文,如有侵权请联系删除

END

8a94b3d1eca49ca79b89c5466d6efd84.webp

71eec5434ca69b84cf0db35ed93a6f1a.webp

浏览 24
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报