跳到正文

这篇文章由人工智能辅助翻译,尚未经过母语者审阅。英文原版为本网站的标准版本。

编码器实验室

看一段视频,看看平均脑在做什么。

四段 Creative Commons 许可的短片,四种不同的皮层系统。挑一个。上方的脑会随视频播放重新渲染 —— 在编辑性的关键帧之间内插,每个关键帧由该瞬间刺激对应的 Neurosynth 元分析合成而来。

在 Meta 的 TRIBE v2 演示页 aidemos.atmeta.com/tribev2 的精神下构建,但有两点诚实差异:此处所有预测都是预先计算的(不是实时 TRIBE 推理),并且每段视频都带有自己的来源、许可与 Neurosynth 词项组合。作者使用 HuggingFace 上的 facebook/tribev2 访问权限运行 Colab 笔记本时,真实的 TRIBE 预测会落到相同的 JSON 路径 —— 页面会在不改代码的情况下渲染它们。

Paused0.0s / 20.0s

睡莲绽放

一朵花绽放的近距离延时摄影。持续的视觉感知贯穿整个片段;当花开尽时,一缕奖赏的权重随之而至 —— 编辑性的组合追随的是观看者,而不是花。

Neurosynth 元分析
Neurosynth 元分析(预览) · HCP-MMP-360 (Glasser 2016, doi:10.1038/nature18933) · CC0
片段: Water lily opening bloom, Wikimedia Commons (CC-BY-SA).方法: Per-keyframe Neurosynth composite. Each keyframe blends cached term z-maps with editorial weights, projects to fsaverage5 via nilearn.surface.vol_to_surf, aggregates within HCP-MMP-360 parcels. The frontend interpolates between keyframes as the video plays. This is the PREVIEW path � drop in TRIBE-v2-generated frames at the same path to swap in real predictions.Yarkoni et al., Nature Methods 2011, doi:10.1038/nmeth.1635Time-lapse close-up of a flower opening. Visual + scene encoding builds across the clip; subtle reward weighting as the bloom completes.
关键帧组合
  • t=0.0s · perception 50% · face 10% · attention 20% · emotion 20%
  • t=7.0s · perception 40% · attention 20% · imagery 20% · emotion 20%
  • t=14.0s · perception 35% · reward 20% · attention 20% · imagery 25%
  • t=20.0s · perception 30% · reward 30% · attention 20% · default mode 20%
这不是什么

这不是对你的脑的测量。也不是对任何特定脑的测量。你看到的是经过同行评审的 fMRI 文献对上述词项组合的聚合激活模式,投射在一个标准皮层表面上。模型不是心智。聚合不是个人。