はじめに

ChatGPTやGeminiなどの生成AIは、仕事や学習の必須ツールになりつつあります。一方で、「使えば使うほど自分の頭を使わなくなるのでは?」という不安を感じている人も多いのではないかと思います。

本記事では、MIT(マサチューセッツ工科大学)の研究「Your Brain on ChatGPT」をもとに、ChatGPTが脳の活動・記憶力・集中力・注意力にどのような影響を与えるのかを整理し、仕事で生成AIと賢く付き合うためのヒントを考えます。

この記事の要点

  • MIT研究のテーマ:MIT研究「Your Brain on ChatGPT」をもとに、ChatGPTなどの生成AIが脳活動・記憶・集中・注意・学習に与える影響を、LLM/検索/Brain-onlyの3条件で比較した結果を紹介。
  • 主な結果:Brain-onlyが最も広く強い脳ネットワーク活動を示し、検索が中間、LLM依存が最も低かった。特にα帯域・θ帯域など、記憶・集中・注意と関わる帯域でLLMグループは弱く、言語の多様性・クリティカルシンキング・記憶(自分の文章の引用)でもBrain-onlyに劣後していた。
  • 文章の質と所有感:LLMグループのエッセイは語彙・構文が均質で独自性に乏しく、成果物への所有感も「自分の文章」か「AIの文章」かで揺らぎが大きかったのに対し、Brain-onlyは強い所有感を維持していた。
  • 「順番」が重要という示唆:先にLLMに書かせてから自分で直すよりも、「まず自分で考えて書く → その後LLMに意見や追加視点を求める」方が、脳活動や記憶想起の面で望ましいパターンが見られる。
  • 実務での付き合い方の提案:仕事では「自分で考える → 生成AI(ChatGPTなど)に意見をもらう → 自分の手で仕上げる」というプロセスが、認知リソースと成果物責任というプロフェッショナルの意識を守る現実的な使い方になりうる。

研究の概要

研究の目的

この研究の目的はLLM(ChatGPTなど)を使ってエッセイを書くとき、人間の認知負荷・脳活動・記憶・学習能力にどのような影響が生じるかを明らかにすることです。特に、

  • LLM使用者が「考える力」をどの程度軽減しているのか
  • 文章生成能力や記憶保持、成果物への所有感がどう変わるのか
  • 脳のネットワーク活動はどう変化するのか
    を検証することが主目的です。

研究の手法

合計54名を、次の3グループに分けて 3回のエッセイ執筆を行わせました。

  • LLMグループ:ChatGPTのみ使用
  • 検索グループ:Google検索のみ使用
  • Brain-onlyグループ:外部ツールなし

各セッションではSAT形式のエッセイ(短時間で、題目に対する自分の立場を論理的に主張・展開する、大学入試レベルの英語論説文)を20分で執筆してもらう。さらに EEG(脳波)を全員に装着し、

  • 認知負荷
  • 脳領域間のネットワーク連結性(dDTF)
    を測定。

同時に以下も実施しました:

  • NLP分析(執筆パターン、語彙の多様性)
  • ChatGPTログ・検索ログの解析
  • 人間教師とAIによる採点
  • 執筆後インタビュー(記憶・引用能力・所有感など)

第1~3セッションは各参加者は「割り当てられた条件のまま」3回エッセイ執筆を繰り返し、4回目セッションでは役割を入れ替え(LLM→Brain、Brain→LLM)て影響をさらに確認します。

研究の結果

3グループ間で極めて一貫した差が確認されました。

(1)脳活動

  • Brain-onlyが最も広範で強い脳ネットワーク活動が生じた
  • 検索グループは中間
  • LLM使用者は最も弱い脳活動
    → 認知的関与が最も低い状態。

特にα帯域とθ帯域でLLM使用者のネットワーク結合が弱く、Brain-onlyや検索グループに比べて低い活動が観測されました。特にLLM使用者は明確に活動が低い結果となりました。

さらに4回目では:

  • LLM→Brain:脳活動は回復せず、依然として弱い
  • Brain→LLM:記憶想起能力が高く、脳ネットワークが再活性化

(2)エッセイの言語特徴

  • LLMグループは語彙・構文が均質化
  • NER・n-gram(語彙)がChatGPTの典型的パターンに収束
  • 文章の多様性が小さい
  • 「独自性」「距離」が最も低い

(3)記憶・引用能力

  • LLMグループ:初回セッションでは83%が自分の文章を引用できない
  • 検索とBrain-onlyは引用失敗は約11%
  • LLM使用者は直前に書いた内容さえ覚えていない

(4)所有感(ownership)

  • Brain-only:ほぼ全員が強い所有感
  • 検索:中程度
  • LLM:
    • 「完全に自分の文章だと思う」人と
    • 「完全にAIの文章」だと思う人に分裂
      → 一貫しない、曖昧な所有感。

(5)総合スコア

  • AI ジャッジと人間教師の総合的な採点では、LLMグループはBrain-onlyグループよりむしろ劣後しており、論文は「神経活動・言語パターン・スコアリングのすべてのレベルでBrain-onlyに劣る」と結論づけています。一方で、特定のトピックやSession 4のような条件では、局所的にはLLMが優位なケースもあり、LLM利用条件が高得点を取るケースも見られました。
  • しかし、以下の観点ではLLMグループが最も劣後していました。
    • 言語の多様性
    • クリティカルシンキング
    • 記憶
    • 脳活動

研究結果から考える生成AIとの付き合い方

生成AIは極めて便利なツールであり、使いこなせるかで生産性やアクセスできる情報が大きく変わります。しかしながら、生成AIが出力した情報を使い回すだけを繰り返すと、認知機能をトレーニングする機会も同時に失われていくのは常々感じているところでした。

この研究の条件下では、LLMに依存したグループは、Brain-onlyに比べて、脳ネットワークの結合、記憶(引用)、言語的多様性、採点の面で一貫して劣後しており、「LLMに任せるほど、そのタスクで自分の頭を使わなくなる」傾向が裏付けられたといえます。この点はまさに多くの人が感じていることの裏付けといえるかと思います。

特に、研究の中で触れられていたα帯域・θ帯域の活動パターンは、記憶・集中・注意の働きと深く関わる主要な脳の機能と関わりがあるとされ、これらの活動が弱くなっていくのは非常に危険といえます。さらに、LLMグループは 語彙・構文が均質化されたとの結果が出ていますが、ボキャブラリ(語彙)の多さは、多方面で知的活動・認知機能に効いてきます。この意味でも、生成AIは使い方如何で知的活動・認知機能に多方面からマイナスの影響を与えかねないといえます。

また、自分の経験談としても、多くの人が述べる感想としても、自身の専門領域で使ってみると、間違っていることや、大きな見落としがあることが意外と多く、使うとしても成果物作成の叩き台として、そこから最終成果物として仕上げるためにブラッシュアップする方法が現実的な方法として多く用いられているのではないかと思います。

つまりLLM→自分の順番で使う人が多いのではないでしょうか。

この「順番」について研究から重大な示唆があります。再度引用しますが、研究では4回目のセッションで役割を入れ替えたグループにおいて以下の結果が出ています。

  • LLM→Brain:脳活動は回復せず、依然として弱い
  • Brain→LLM:記憶想起能力が高く、脳ネットワークが再活性化

ゼロから自分で考える経験を経て、そこから外部刺激としてLLMを受け入れれば、主体的な思考を働かせ続けることができると言える結果かと思います。

その意味では、
LLMにたたき台を作らせる→自分が直す

ではなく、
自分がたたき台を作る→LLMに多角的に意見を出してもらう→それをもとに自分で考え、自分でブラッシュアップする

のプロセスの方が良いといえます。

特に仕事では成果物責任を自分が負っているという感覚は、極めて重要な要素の一つといえます。何かあったときに、「部下や社員がやったことなので、自分は知りません」という態度では顧客や上司からの信頼を失ってしまいます。こんな態度で仕事をする方は多くはないかと思いますが、研究からは最初からLLMありきでは自然とそういう傾向が出てしまうとも読み取れ、実験でのLLM活用グループの成果物の所有感が薄かったという点は非常に示唆があるといえます。

生成AIの強力な機能と凄まじい進歩を考えると、使わないという選択肢はないように思います。しかし、使った結果、自分の認知機能や責任感がどんどん失われていくのは非常にまずいです。AIが絶対に代替してくれないことの一つが「責任を取ること」だからです。

この点、
自分で考える→生成AIに意見をもらう→自分が手を動かして再度直す
このプロセスであれば、少なくとも本研究の結果と整合的に、「自分の認知リソースを維持・活用しながらAIを使う」方向に働きやすいと考えられます。生成AIの使い方がよりうまくなることも相乗効果となり、知的活動において良い循環が出来上がるのではないかと思います。

まとめとQ&A

Q1. ChatGPTを使うと、本当に脳に悪い?
A. このMIT研究の条件下では、ChatGPTに依存したグループは、Brain-onlyに比べて脳ネットワークの結合や記憶(自分の文章の引用)、言語的多様性などで一貫して劣後していました。ただし、「ChatGPT=脳に悪い」と一般化できるわけではなく、あくまで「丸投げに近い使い方だと、そのタスクで自分の頭をあまり使わなくなる」ことが示されたと捉えるのが妥当です。

Q2. 生成AIは記憶力・集中力・注意力を下げてしまう?
A. 研究では、LLMグループでα帯域・θ帯域など、記憶・集中・注意と関わる脳活動のネットワーク結合が弱く、初回セッションでは83%が自分の文章を正しく引用できませんでした。これは、「そのエッセイ課題に関しては、生成AIに任せるほど自分の記憶・集中・注意の関与が下がっていた」ことを示唆します。ただし、使い方次第で影響は変わりうると考えられます。

Q3. 仕事でChatGPTを使うとき、どんな順番で使うのがよい?
A. この研究や実務経験からは、
自分で考える → 生成AIに多角的な意見を出してもらう → 自分の手で仕上げる
という順番が望ましいと考えられます。最初からChatGPTに書かせるのではなく、まずは自分でたたき台を作り、その後にAIを「拡張用の第二の頭脳」として使うのがポイントです。

Q4. 生成AIにどこまで任せて、どこから自分でやるべき?
A. 少なくとも、最終的な判断・構成・表現の統合は自分で行い、かつ成果物の責任と、成果物への関与の主体性は意識的に自覚すべきです。アイデア出しや観点の補完など、自分の認知負荷をゼロにするのではなく、リソース配分を最適化する領域に生成AIを活用するのが、安全かつ生産性の高い使い方といえます。

関連記事