AIの成長速度と、人間の役割について

AIの成長速度と、人間の役割について

AIの成長速度に、人間が作業速度や知識量で追いつく必要はない。
人間が伸ばすべきなのは、問いを立てる力、判断する視座、現実と人のあいだを調整する力だと思う。

少し前までは、月2000円〜3000円くらいで家にAIが来たことに驚いていた。
今はもう、それが当たり前になっている。

文章を書く。
調べる。
コードを書く。
画像を扱う。
資料を作る。
ブラウザやターミナルを操作する。

AIは、ただチャットで答える存在ではなくなってきた。
作業を分解し、ファイルを読み、修正し、実行し、次の行動まで提案する存在になっている。

この記事では、AIの発展速度を数字と概念図で整理する。
そのうえで、人間がどこに努力すべきかを考える。

AIは人間より速く更新される

人間は、1年で急に2倍も3倍も頭がよくなるわけではない。
経験を積み、失敗し、少しずつ見方を変えていく。

一方でAIは、モデルや道具が更新されるたびに、できることの範囲が一気に変わる。

この違いを雑に比べると、こうなる。

概念図:更新速度の違い

人間
ゆっくり
AI
速い

人間の成長は経験の積み上げ。AIの成長はモデル、道具、接続先の更新で段階的に跳ねる。

だから、人間がAIと同じ方向で競争すると苦しくなる。
知識量、処理速度、作業量で勝とうとすると、相手の土俵に乗ってしまう。

人間が見るべきなのは、速度そのものではない。
その速度を何に使うかだ。

ChatGPTの普及は数年で日常になった

AIの変化は、性能だけではない。
使う人の数も急に増えた。

数年前、月20ドルくらいで家にAIが来たことに驚いた。
ChatGPT Plusは、2023年2月に月額20ドルで始まった。

日本円でざっくり2000円から3000円くらいの感覚で、個人が高性能なAIを日常的に使えるようになった。
当時は、それだけでもすごいことだった。

でも今は、それが当たり前になりつつある。
仕事でも、文章作成、調査、アイデア出し、コード作成、資料づくりの一部にAIを使うことが普通になってきた。

ChatGPTは、2023年11月に週間利用者が1億人規模になった。
2024年8月には2億人。
2025年2月には4億人。
2025年11月には8億人。
2026年4月には9億人を超えていると報じられている。

ChatGPTの週間利用者数

2023年11月
1億
2024年8月
2億
2025年2月
4億
2025年11月
8億
2026年4月
9億超

単位は週間アクティブユーザー。複数報道をもとにした概数。

ここで大事なのは、数字の大きさだけではない。
AIが「一部の詳しい人の道具」から「ふつうに生活や仕事に入ってくる道具」へ変わったことだ。

もう、AIを使うこと自体は特別ではない。
これから差が出るのは、AIをどう使うかだと思う。

AIは安く、速く、強くなっている

AIの変化で大きいのは、性能だけではない。
使うためのコストも下がっている。

Stanford AI Index 2025では、GPT-3.5相当の性能を出すAIの推論コストが、2022年11月の100万トークンあたり20ドルから、2024年10月には0.07ドルまで下がったと報告されている。

GPT-3.5相当モデルの推論コスト

2022年11月
$20.00
2024年10月
$0.07

単位は100万トークンあたり。Stanford AI Index 2025の値。

性能が上がる。
コストが下がる。
使える場所が増える。

この3つが同時に起きている。

だから、AIの発展は「少し便利になった」というより、仕事や生活の前提が変わっていく話に近い。

AIはチャットから作業するエージェントへ変わった

AIの進化で大きいのは、操作方法の変化だ。

以前は、ブラウザでチャットを開いて質問する形が中心だった。
今は、ターミナル、エディタ、ブラウザ、ファイル操作までAIが触る流れが増えている。

Google Antigravityは、エディタ、ターミナル、ブラウザにAIエージェントが直接アクセスし、計画、実行、検証まで行う開発環境として紹介されている。
CodexやClaude Codeのような開発エージェントも、同じ方向に進んでいる。

つまり、AIは「答える道具」から「作業の流れに入る道具」へ移っている。

1. 答えるチャットで質問に返す
2. 作る文章、画像、コード、資料を作る
3. 操作するブラウザ、ターミナル、ファイルを扱う
4. 進める分解、実行、確認、修正を回す

この変化はかなり大きい。
なぜなら、人間の仕事の中にAIが常駐し始めるからだ。

単発で相談するAIではない。
仕事の流れに入ってくるAIだ。

ベンチマークでもエージェント化は進んでいる

Stanford HAIの2026年版AI Indexでは、AIの能力が止まっていないことが強調されている。
特に目立つのは、コードとコンピューター操作の伸びだ。

SWE-bench Verifiedでは、性能が1年で60%から人間基準に近い水準まで伸びたとされている。
OSWorldでは、AIエージェントが実際のコンピューター操作タスクで成功する割合が、約12%から約66%へ伸びた。

AIエージェント系ベンチマークの伸び

OSWorld 2025約12%
OSWorld 2026約66%
SWE-bench Verified 2025約60%
SWE-bench Verified 2026ほぼ100%

AI Index 2026の要約値。ベンチマークは実務そのものではないが、方向性は見える。

ただし、ここで煽りすぎないほうがいい。
OSWorldでも、まだ約3分の1は失敗する。

つまり、AIはかなりできるようになっている。
でも、完全に任せきれるわけではない。

この中途半端な強さが、むしろ人間の役割を大きくする。
速く進むAIを、どこで止め、どこを確認し、どこを現実に合わせるか。
そこを人間が見なければいけない。

AGIは主役ではなく背景として見る

AGIがそろそろ来る、と言われることが増えた。
ただ、この記事では「AGIがいつ完成するか」を当てにいかない。

OpenAIはAGIを「ほとんどの経済的に価値ある仕事で人間を上回る高度に自律的なシステム」と説明している。
Google DeepMindは、AGIを見るときに、性能の高さだけでなく、どれだけ広い範囲の仕事に対応できるかも重視している。

だから大事なのは、AGIというラベルがつくかどうかではない。

すでにAIは、文章を書く、調べる、コードを書く、画像を扱う、資料を作る、ブラウザやターミナルを操作するところまで来ている。
この変化だけでも、人間の役割を考え直すには十分だ。

1年後、2年後、3年後に起きそうなこと

未来予測は外れる。
だから断定はしない。

ただ、この速度で進むなら、仕事の中で起きる変化はかなり見えてくるだろう。

時期 起きそうな変化 人間に必要なこと
1年後 AIを日常的に使う人と使わない人の作業差が広がる 毎日の小さな作業にAIを入れる
2年後 AIが単発の相談相手ではなく、仕事の流れに常駐する 任せる範囲と確認する場所を決める
3年後 AIを使えるかより、AIを使って何を判断できるかが問われる 問い、視座、責任、調整力を鍛える

この変化で、人間の価値は作業量から判断の質へ移っていく。

たくさん知っている人。
早く作業できる人。
きれいにまとめられる人。

もちろん、これらの力は今後も大切だ。
でも、それだけではAIと競争する形になってしまう。

これから大事になるのは、AIに任せる前の問いと、AIが出した後の判断だ。

人間はAIと現実のあいだに立つ

人間の役割は、AIの緩衝材のようなものかもしれない。

AIが出したものを、そのまま現実にぶつけるのではない。
人間が受け止め、調整し、意味を与える。

人間は、AIと現実のあいだに立つ。
AIと人間関係のあいだに立つ。
AIの速度と、社会や生活の速度のあいだに立つ。

AIは速い。
でも人間の生活は、そこまで速く変わらない。

人間の感情も、組織も、家族も、地域も、法律も、すぐには追いつかない。

だから、AIが速くなるほど、人間には速度を調整する力が必要になる。

見る位置を上げると役割が変わる

AIより速くなる必要はない。
AIより高い位置から見る必要がある。

細かい作業をAIに渡すほど、人間には少し余白ができる。
その余白を、ただ楽をするためだけに使うのか。
それとも、もっと深く考えるために使うのか。

ここで差がつく。

AIを「作業を減らす道具」として使う人。
AIを「考える位置を上げる道具」として使う人。

同じAIを使っていても、見えている景色は変わる。

人間が努力する方向は、AIと同じ速度で知識を増やすことではない。

  • 問いを立てる
  • 視座を上げる
  • 判断する
  • 責任を持つ
  • 人と現実のあいだで調整する

そこに力を使うべきだと思う。

明日から変えること

最初の行動は小さくていい。

まず、毎日ひとつAIに頼む。
調べものでもいい。
文章の整理でもいい。
考えの壁打ちでもいい。
買うものの比較でもいい。
仕事の下書きでもいい。

大事なのは、AIを特別なものとして扱わず、日常の中に入れることだ。

ただし、AIの答えをそのまま使わない。
必ず一度、自分で見る。

  • これは本当に合っているか
  • 自分の状況に当てはまるか
  • 言いすぎていないか
  • 抜けている前提はないか
  • 誰かに説明できるか

次に、「何を聞いたか」を少し残す。

AI時代に大事なのは、答えそのものよりも問いだと思う。
いい問いを立てると、AIの答えもよくなる。
雑な問いを投げると、雑だけどそれっぽい答えが返ってくる。

記録はこれくらいでいい。

  • 今日AIに何を頼んだか
  • どんな答えが返ってきたか
  • どこを直したか
  • 最後に自分は何を判断したか

AIを使うとは、答えを外注することではない。
考える材料を増やすことだ。

AIに任せられる作業は任せる。
でも、目的、判断、責任は手放さない。

AIの成長速度は速い。
でも、人間には人間の成長の仕方がある。

AIに追いつこうとするより、AIを使って、自分の見る位置を変える。
細かい作業に埋もれるのではなく、少し高い場所から、何が大事なのかを見る。

これからの生き方は、AIを使うかどうかだけで変わるのではない。
AIとどう向き合うかで変わる。

だから今、少しずつ使いながら考えたい。

AIに何を任せるのか。
自分は何を判断するのか。
どんな問いを持つ人間でいたいのか。

そこを考え続けることが、AI時代の人間の役割なのだと思う。

FAQ

AIの成長速度に人間は追いつけますか?
作業速度や知識量で追いつく必要はありません。 人間が伸ばすべきなのは、問いを立てる力、判断する視座、現実に合わせて調整する力です。
AGIが来たら人間の役割はなくなりますか?
なくなると断定するより、役割が上流に移ると考えたほうが現実的です。 AIが強くなるほど、何を任せるか、どこで止めるか、何に責任を持つかが重要になります。
AIを使うと考える力は落ちますか?
使い方次第です。 答えをそのまま受け取ると考える力は弱くなりやすいです。 一方で、AIの答えを疑い、問いを記録し、自分で判断するなら、考える材料を増やす道具になります。

関連記事

参照元

attrip

attrip

考えたことを、記事・AI・音楽に変えて発信しています。

盆栽、音楽、ブログ運営、日々の試行錯誤について書いています。

2010年から発信中

コメントを残す