エンコーダ・ラボ
クリップを見て、平均的な脳が何をするかを見る。
Creative Commons ライセンスの短いクリップ四本、四つの異なる皮質システム。一本選ぶと、上の脳が動画再生に合わせて再レンダリングされる — 各瞬間の刺激について Neurosynth のメタアナリシスを構成する編集的キーフレーム間を補間する。
Meta の TRIBE v2 デモ aidemos.atmeta.com/tribev2 の精神に倣って構築。誠実さで二つの差異: ここでの予測はすべて事前計算されたもの (ライブ TRIBE 推論ではない)。各クリップに出典、ライセンス、Neurosynth 用語構成を付している。著者が HuggingFace の facebook/tribev2 アクセスで Colab ノートブックを実行すると、実 TRIBE 予測が同じ JSON パスへ落ち、ページはコード変更なしでそれをレンダリングする。
Paused0.0s / 20.0s
睡蓮の開花
花が開く接写のタイムラプス。視覚的知覚はクリップを通じて積み上がり、開花の頂点でかすかな報酬の重みが続く — 編集的構成は花ではなく観る者を追っている。
Neurosynth メタアナリシス
Neurosynth メタアナリシス (プレビュー) · HCP-MMP-360 (Glasser 2016, doi:10.1038/nature18933) · CC0
クリップ: Water lily opening bloom, Wikimedia Commons (CC-BY-SA).方法: Per-keyframe Neurosynth composite. Each keyframe blends cached term z-maps with editorial weights, projects to fsaverage5 via nilearn.surface.vol_to_surf, aggregates within HCP-MMP-360 parcels. The frontend interpolates between keyframes as the video plays. This is the PREVIEW path � drop in TRIBE-v2-generated frames at the same path to swap in real predictions.Yarkoni et al., Nature Methods 2011, doi:10.1038/nmeth.1635Time-lapse close-up of a flower opening. Visual + scene encoding builds across the clip; subtle reward weighting as the bloom completes.
キーフレーム構成
- t=0.0s · perception 50% · face 10% · attention 20% · emotion 20%
- t=7.0s · perception 40% · attention 20% · imagery 20% · emotion 20%
- t=14.0s · perception 35% · reward 20% · attention 20% · imagery 25%
- t=20.0s · perception 30% · reward 30% · attention 20% · default mode 20%
これは何ではないか
あなたの脳の測定ではない。特定の誰かの脳の測定でもない。あなたが見ているのは、査読済み fMRI 研究が上記の用語構成について集計した活性化パターンを標準皮質表面に投影したものだ。モデルは心ではない。集計は個人ではない。
