キュレーション一覧に戻る
バズる確率を予測する方法

要約

Metaが脳の反応を秒単位で予測するオープンソースモデル「TRIBE v2」を公開した。動画を入力すると、どこで脳の反応が上がり下がりするかが見える。下がる箇所を削り、強い場面を前倒しして再編集した結果、1本で221,100回再生を獲得。さらに案件型の投稿報酬では、1,000回再生あたり1〜3ドルの条件なら同規模で約773ドルの試算になる。

Metaが「人間の脳が動画にどう反応するか」をシミュレーションするモデルをオープンソース化した。クリエイターの下書きをそれに通して編集し直したら、221,100回再生まで伸びた。

Meta研究チームが数日前に公開したモデルを見つけた。動画・音声・テキストに対する脳の反応を再現し、720人の脳スキャンで学習している。実際にAIのUGC動画で試した。

ここから、TRIBE v2が何か、コードを書かずにセットアップする方法、そしてクリエイターとしてどう収益化するかを具体的に説明する。

TRIBE v2は700人超の脳スキャンで学習し、動画などを見たときに脳の約7万点がどう反応するかを予測する。動画を渡すと、毎秒どんな反応になるかを返してくる。

MetaのFAIRが720人・1,000時間超の高精細な脳計測で訓練した。ノイズの多い実測より予測のほうが正確だという結果もある。必要なものは全部公開され、無料で使える。

セットアップはコーディング不要。Google Colabを開いてGPUをT4にし、インストールして再起動。Hugging Faceのトークンを作り、テキスト用にLlamaモデルの利用申請もする。

ノートブックの鍵アイコンにHF_TOKENを入れてセルを実行するだけ。サンプル動画で結果を確認でき、任意の動画を入れると「反応が跳ねる秒」と「フラットな秒」が分かる。

実験では、既に編集済みの動画をTRIBE v2に通し、反応が落ちる箇所と上がる箇所を確認。強い場面を前に移し、反応が止まる区間を切り、テンポを組み直した。投稿したら221,100回再生になった。

稼ぎ方は、案件に参加して投稿し、1,000回再生あたりの報酬を得る形。1〜3ドルの案件もあり、複数案をTRIBE v2で比較して最も反応が強い版を出す。さらにClaudeで予測→順位付けまで自動化できる。

出典: 元記事
出典: 元記事
出典: 元記事
出典: 元記事
出典: 元記事
出典: 元記事
出典: 元記事
出典: 元記事
出典: 元記事

Metaが、人間の脳が動画にどう反応するかをシミュレーションするモデルをオープンソース化した。 クリエイターの動画下書きをそれに通し、表示された内容に基づいて再編集したところ、221,100回再生を取れた。

Metaの研究チームが数日前に公開したオープンソースモデルを見つけた。これは、動画・音声・テキストに対して人間の脳がどう反応するかをシミュレーションする。720人の実在する人の脳スキャンで学習している。

出典: 元記事
出典: 元記事

@affiliatenw のAI UGCクリエイターの動画下書き(クリエイター:@sammgrowth)を1本取り、モデルに通した。シミュレーターが示した内容に基づいて再編集し、投稿した。 その動画は221,100回再生になった。

ここから、これが何なのか、コードを1行も書かずに自分でセットアップする方法、そしてクリエイターとして実際にお金を稼ぐ方法を、手順ごとに説明する。

出典: 元記事
出典: 元記事

TRIBE v2とは何か モデル名はTRIBE v2。700人超の実在の人が、動画を見たり、音声を聴いたり、テキストを読んだりしているときの脳スキャンで学習している。何かを見たときに脳の約7万点がどう光るかを予測する。

動画を与えると、その動画の各秒に対して、人間の脳がどう反応するかを教えてくれる。

出典: 元記事
出典: 元記事

MetaのFAIRチームは、720人の協力者から得た1,000時間超の機能的MRI記録でTRIBE v2を訓練した。協力者は映画を見たり、ポッドキャストを聴いたり、テキストを読んだりし、その間の脳活動が高解像度で記録された。

TRIBE v2はそのパターンを学び、まだ見たことのないメディアに対する脳反応も予測できる。もう人をMRI装置に入れる必要はない。

出典: 元記事
出典: 元記事

さらに驚くのは、Meta自身の研究で、TRIBE v2の予測が単一の実測脳スキャンより正確だと示されている点だ。実測には心拍、体動、機器の影響などのノイズが入る。モデルはそれを取り除き、きれいな信号として出してくれる。

しかも、必要なものはすべてオープンソースで、完全に無料だ。

出典: 元記事
出典: 元記事

セットアップ方法(コーディング不要) Metaはこれを驚くほど簡単にしている。無料のGoogle Colabノートブックが用意されていて、そこでモデル全体を動かせる。手順はこうだ。

手順1:Colabノートブック(MetaのTRIBE v2リポジトリにリンクあり)を開く。Runtime > Change runtime type > T4 GPUを選び、保存する。

出典: 元記事
出典: 元記事

手順2:pip installのセルを実行し、その後で環境を再起動する。

手順3:Hugging Faceのアカウントが必要。huggingface.coで作成し、プロフィールのドロップダウンからAccess Tokensへ進む。新しいトークンを作り、名前は任意、権限は読み取りでよい。コピーしておく。

出典: 元記事
出典: 元記事

手順4:入力のテキスト部分に使うLlamaモデルへのアクセス申請も必要。申請フォームを出し、承認まで約1時間かかった。

手順5:ノートブックに戻り、サイドバーの鍵アイコンからHF_TOKENを追加し、トークンを貼り付ける。

出典: 元記事
出典: 元記事

手順6:セルを実行する。サンプル動画も入っているので、すぐに脳反応の予測結果を見られる。

これで任意の動画を入れられるようになり、どこで脳の反応が跳ね、どこでフラットになるかが分かる。流れを理解するための簡単な動画もある:https://www.youtube.com/watch?v=VER-F4wdA9Q

出典: 元記事
出典: 元記事

221,000回再生をどう取ったか @sammgrowth と小さな実験をした。彼のすでに編集済みの動画をTRIBE v2に通し、どこで脳の反応が落ち、どこで上がるかを確認した。

その神経データに基づいて再編集した。反応が最も高い瞬間を前に移し、脳活動が止まる「死んだ区間」を削り、テンポを組み直して、反応が全体で高く保たれるようにした。

出典: 元記事
出典: 元記事

最適化版は、元の動画より予測上の反応が明確に強かった。研究目的の軽い作業で、時間もほとんど使っていないが、それでも差ははっきり出た。

それを投稿したら221,100回再生になった。以前の動画はもっと再生が少なかった。最小限の最適化でこれなら、投稿前に毎回これを通したらどうなるか想像してほしい。

出典: 元記事
出典: 元記事

Gen Zがこれで実際に稼ぐ方法 再生数は良いとして、どう収益化するのか? 自分たちは、バイラルが得意で報酬も得たいクリエイター向けに大きなプラットフォームを作っている。

多くのブランドがキャンペーンを走らせていて、クリエイターが参加して動画を投稿し、1,000回再生あたりの報酬を得る。手順はこうだ。

affiliatenetwork.com に行き、好きなキャンペーンに参加する。今は1,000回再生あたり1〜3ドルを支払うキャンペーンもある。

ブランドが求める形式を確認し、複数のバリエーションを作る。投稿前にそれぞれをTRIBE v2に通し、予測反応が最も強い版を選んで投稿する。

仮に1,000回再生あたり3.5ドルなら、221,000回再生で773ドルになる。これを、10アカウントが毎日、脳反応で最適化したコンテンツを投稿する形に広げる。すでに自分たちのプラットフォームで10万ドル以上稼ぐクリエイターもいる。

Claudeで全体を自動化する Claudeを使って予測パイプライン全体を自動化できる。動画ファイルを渡し、各動画をTRIBE v2に通して、予測反応で順位付けし、どの版を投稿すべきか教えさせる。

脳マップを手で確認する必要はない。10個の動画バリエーションを入れたら、Claudeがどれが最も強い神経反応になるかを返し、それを投稿する。

これでコンテンツ最適化が「アート」から「工学」になる。同じ労力で、結果は大きく良くなる。

参考リンク 論文:https://ai.meta.com/research/publications/a-foundation-model-of-vision-audition-and-language-for-in-silico-neuroscience デモ:https://aidemos.atmeta.com/tribev2 モデル:https://huggingface.co/facebook/tribev2 最大級のAI UGCと切り抜きプラットフォーム:AffiliateNetwork.com

Key Takeaways

1

反応が落ちる秒を削るべき

TRIBE v2は秒単位で「脳の反応の落ち込み」を示す。フラットな区間を切るだけでテンポが改善しやすい。

実践するなら

TRIBE v2のColabを開き、GPUをT4に設定して実行する

2

強い場面は冒頭に前倒しすべき

反応が最も高い瞬間を早い位置へ移動し、最初の離脱を抑える構成に寄せると予測反応が上がりやすい。

実践するなら

Hugging Faceの読み取りトークンを作り、ノートブックにHF_TOKENを登録する

3

複数案を比較して勝ち案を出すべき

同じ企画でも編集違いの複数バリエーションを作り、TRIBE v2で反応が最も強い版を選ぶと意思決定が速い。

実践するなら

動画の3案を用意し、TRIBE v2で反応が強い版を選んで投稿する

4

ノーコードで検証環境を作るべき

Google ColabとHugging Faceトークンで動かせる。GPU設定とトークン登録が主な手順で、無料で試せる。

実践するなら

反応が落ちる区間を削り、強い場面を冒頭へ移す再編集を試す

5

報酬設計は再生数連動で組むべき

1,000回再生あたり1〜3ドルの案件がある前提なら、最適化で再生が伸びた分がそのまま収益に直結する。

実践するなら

予測結果の比較と順位付けをClaudeに任せる運用を作る

6

評価作業は自動化すべき

Claudeに動画をまとめて流し、TRIBE v2の予測結果で順位付けさせれば、手作業の確認を減らせる。

背景・コンテキスト

短尺動画は数秒単位で離脱が起きやすく、編集の微差が再生数に直結する。秒ごとの反応を可視化できると、修正点の特定が速くなる。

実測の脳計測は高コストでノイズも入りやすいが、学習済みモデルなら同じ入力に対して一貫した指標を返せるため、比較実験に向く。

案件型のクリエイター報酬は再生数に連動することが多く、改善の効果が金額で見えやすい。最適化の投資対効果を計算しやすい領域だ。

実践するなら

  • TRIBE v2のColabを開き、GPUをT4に設定して実行する
  • Hugging Faceの読み取りトークンを作り、ノートブックにHF_TOKENを登録する
  • 動画の3案を用意し、TRIBE v2で反応が強い版を選んで投稿する
  • 反応が落ちる区間を削り、強い場面を冒頭へ移す再編集を試す
  • 予測結果の比較と順位付けをClaudeに任せる運用を作る