生成AIやAIエージェントが一気に身近になってます。
先日親戚の小学生が、ゲームしてるのかな?と思っていたら
ChatGPTにはまっているのを見て、空恐ろしい世の中になってきた感を覚えました。
小学生の場合は、検索代わりに使っているようでしたが、
文章作成、壁打ち、要約、アイデア出し、メール文案などで、
AIを使うこと自体は職場でもありふれてきました。
しかし一方で、ここで大きな勘違いも起きやすいと感じています。
それは、
「AIを使っている = これからも大丈夫」ではない
ということです。
今回私は、この点を整理するために、
「AIに接する一般の人は、3つの層に分かれる」
という考え方を、スライドにまとめました。
あくまで一般の人であって、AIの専門家、研究者など
AIそのものを仕事にしている人たちは対象外とします。
このスライドでは、
A層を「AIと共創できる人」、
B層を「AIを日常的に壁打ちできるが受け身になりやすい人」、
C層を「AIをほとんど使わない、または定着していない人」
として考察しています。
この記事では、その内容をわかりやすく紹介します。
あわせて、「A/B/Cはどれくらいの割合なのか」
という点についても、公開データをもとに説明します。
AIに接する一般の人は、実は3つの層に分かれる
まずは、このスライド見ていただくほうが早いです。
※スライド左下の『↑』『↓』でページ移動ができます。
スライドの構成はとてもシンプルにしております。
AIに接する一般の人を3つの層に整理して、
それぞれ何がどう違うのか?
この先どうなるのか?
の見通しをわかりやすくしたつもりです。
C層は、AIをほとんど使わない人。
あるいは、少し触ったことはあっても、よく分からず定着していない人です。
なんとなく使ってはみたが、うまくいかないので面倒もあって使わないビジネスパーソン。
B層は、AIと会話したり、壁打ちしたり、下書きを作らせたりはできる人。
ただし、AIの出力を受け取る側に留まりやすく、使い方が受け身になりやすい層です。
これなんでかって言うと、AIの言葉を人は信用しやすくなるからです。
私の個人的意見ではなく、論文としていくつも出ているのでご紹介します。
昨今、AIは『ユーザにおもねる』のが普通で、できるだけ持ち上げようとしますので、
その雰囲気に呑まれていっそう信じやすくなるのですね。
「人はAIをどのように信じ、どこで頼りすぎるのか」
を考えるうえで参考になる論文>> Trust and reliance on AI — An experimental study of people’s susceptibility to AI advice
AIが出した助言だと分かるだけで、人はそれに従いやすくなることを示した実験研究です。
要点は自分の判断や与えられた文脈情報と食い違っていても、AIの助言に追随してしまうという点です。しかもその追随は、本人にとって不利な結果だけでなく、第三者にも望ましくない影響をもたらしうると整理されています。>> Managerial overreliance on AI-augmented decision-making processes: How the use of AI-based advisory systems shapes choice behavior in R&D investment decisions
これは何かというと、R&D投資のような不確実性の高い判断で、
AI助言システムが人の選択行動をどう変えるかを扱っています。
ポイントは、AIが意思決定に組み込まれると、管理者がそれを補助として使うだけでなく、過度に依存してしまうリスクがあることです。>> Development and validation of the AI dependence scale
人がAIにどれくらい依存しているかを測るための尺度を開発・検証した研究です。
対象は中国の大学生です。したがって、そのまま一般社会へ当てはめるには注意が必要ですが、
研究としては「AI依存」という概念を測定可能な形にした点が重要です。
A層は、AIの特徴や限界を理解し、目的に応じて役割分担しながら成果をつくれる人。
単にAIを使うのではなく、AIと一緒に仕事を組み立てられる層です。
ここで重要なのは、AIに触れているかどうかではなく、
AIとどう役割分担して成果につなげているかです。
A/B/C層の割合はどれくらいか
ここで気になるのが、
「実際にはどの層がどれくらいいるのか」
という点です。
ここで示す比率は厳密な実測値ではなく、
公開調査をもとにした説明用の近似モデルです。
アメリカの公開データをもとにすると、
現時点では次くらいで考えるのが自然だと思っています。
(日本国内では感覚的になりますが、B層がボリュームゾーンで、
A層はどう見ても1割以下じゃないかと思っております。)
C層:4~5割前後
B層:3~4割前後
A層:1~2割前後
この置き方の根拠は、主に2つあります。
1つ目は、Gallup(ギャラップ)の職場AI利用調査です。
2026年1月公表のGallup調査では、米国就業者の49%が職場でAIを全く使わないと答えています。
一方で、少なくとも年に数回以上使う人は51%で、そのうち週に数回以上使う「頻繁利用」は26%、毎日使う人は12%でした。
2つ目は、Pew Research Centerの一般成人調査です。
2025年6月のPew調査では、米国成人の34%がChatGPTを使ったことがあると答えています。
逆に言えば、66%はまだ使ったことがないということです。
若年層ほど利用経験が多い一方、全体ではまだ未接触層がかなり残っています。
さらにGallupの2025年6月時点の調査でも、職場でAIを少なくとも年に数回以上使う人は40%、
週に数回以上使う人は19%、毎日使う人は8%でした。
利用は伸びているものの、頻繁に使う人はまだ少数派だと分かります。
もちろん、ここでいうA層は単に「高頻度利用者」ではありません。
A層は、AIを頻繁に使うだけでなく、目的に応じてAIに役割分担させ、成果まで設計できる人です。
その意味では、実際のA層は「頻繁利用者」よりさらに絞られるはずです。
(説明用にはA層を1~2割前後と置きましたが)
C層は、これから徐々に取り残されやすくなる
C層については、
「AIを触ったことがない、または触ったけれどよく分からない層」
として整理しています。
ただ、この層は時代の変化とともに薄くなると予想しています。
これは、脅したいから言っているのではありません。
AIはこれから、特別な人だけの道具ではなく、
使えて当たり前の基礎スキルに近づいていく可能性が高いからです。
まぁ、インターネットが出てきて、スマホも出てきて時間の経過とともに
当たり前の存在になったように一種の生活に溶け込むインフラになるのは見えていますね。
今は使っていない人がいても、全体としてはC層は減っていくはずです。
ただし問題は、最後までそこに留まってしまう人です。
その人たちは、周囲のスピードや情報処理の変化についていけず、
静かに、そして確実に不利になっていきます。
つまり問題は、才能の有無ではありません。
AIに近づく最初の一歩を踏み出せるかどうかです。
いちばん多いB層こそ、最も安心できない
B層が一番やっかいかもしれません。
「AIを日常的に壁打ちできる人、AIを使うことに抵抗がない人」
としつつも、AIはユーザーにおもねる性質があり、出力を疑わず信じやすくなり、
AIの言いなりになりがちだが、そのことに気づかないからです。
さらに、このボリュームゾーンは、AIの使い方が中途半端なために
AIと共創できる人に仕事を奪われやすいと言えます。
ここがとても重要です。
AIそのものが仕事を奪うのではなく、
よりAIを使い倒せる人に奪われます。
B層の人は、すでにAIを使っています。
会話もできます。相談もできます。
下書きを作らせることもできます。
ここだけを見ると、かなり前に進んでいるように見えます。
しかし、問題はその次です。
AIの出力をそのまま使う。
なんとなくそれっぽいから採用する。
自分で考える工程を手放す。
すると、見た目はAI活用をしていても、実際には
「受け身の活用」
で止まってしまいます。
別の報告では、生成AIが答を出してくれるまで
ぼーっとすることになり、思考停止になることが増えたともありました。
この状態は、一見便利です。
でも長い目で見ると危険です。
なぜなら、A層はAIを単なる回答装置としてではなく、
成果をつくるためのパートナーとして使っているからです。
つまり、
B層は「AIを使える人」
A層は「AIで成果をつくれる人」
であり、この差は今後ますます大きくなります。
これから最も重要なのは、A層の「AIと共創できる力」
A層は、
「目的に沿ったその時代の複数AIの特徴、限界を知り、役割分担させて目的を達成できる人」
として整理しています。
さらに、AIの特性や限界を知っていることより、
俯瞰してAIをコントロール下に置ける見方や行動ができる人です。
ここでのポイントは、とてもシンプルです。
人は、
・目的設定
・判断(検証含む)
・優先順位づけ
・最終統合
を担う。
AIは、
・発想支援
・下書き作成
・情報整理
・変換
・分析
・検証補助
を担う。
つまり、AIに全部やらせるのではありません。
逆に、人が全部抱え込むのでもありません。
人が考えるべきことを握り、AIに任せるべきことを任せる。
この役割分担ができる人こそ、これから最も強くなります。
だからA層は、単に作業が速い人ではありません。
AIを使って、仕事の質そのものを高められる人です。
だから、質が違うものを提供できるので『次』も楽に考えられます。
では、どうすればA層へ進めるのか
ここが一番大事です。
A層になるために必要なのは、
AIの専門家になることではありません。
必要なのは、AIをどう使うかではなく、
AIとどう役割分担するかを学ぶことなのです。
たとえば、
・どんな場面でAIに任せるとよいか
・どんな場面では人が判断を握るべきか
・どう指示すると、より使えるアウトプットになるか
・複数のAIをどう使い分ければ成果につながるか
・AIの出力をそのまま使わず、どう磨き上げるか
こうしたことを身につけると、
AIは単なる便利ツールではなく、
成果を生み出す共創相手に変わります。
「AIを使う人」から「AIと共創する人」へ
今回のスライドで伝えたかったことを一言でまとめるなら、これです。
これからの分岐点は、AIを使うことではなく、AIと共創できるかどうか。
C層に留まるのは危うい。
B層に留まるのも安心ではないし、C層からの突き上げとA層からは仕事を奪われる。
だからこそ、目指すべきはA層です。
そして、そのA層への移行を本気で進めたい人のために、
私は HACC(Human-AI Co-Creation / 人機共創) という形で、
AIとの役割分担と共創の考え方を体系化しています。
単にAIの使い方を覚えるのではなく、
AIと一緒に成果をつくる側へ進みたい方は、こちらをご覧ください。
▼ HACCの詳細はこちら
-
-
人機共創プロジェクト HACC
AIを使うからAIと共創するへ。自分の強みを再発見し、商品化・収益化へつなげるHACC実践プログラム。
www.ifrv.net