AI時代の必須スキル「善良なる猜疑心」とは?

生成AI時代の必須スキル「善良なる猜疑心」とは?

ChatGPTとガチで議論をし続けたある日、本当にChatGPTが「暴走」をしました。その「暴走」から見る生成AIの使い方をこれまた真剣に考えてみます。

さて、唐突にお伺いしましょう。このBlogを読んでいる読者の皆様は、おおよそデジタルマーケティング業界で働いているか、業務上デジタルマーケティングに携わっている方だと思います。

近年ChatGPTに代表される生成AIは日進月歩の進化を遂げ、場合によっては人間の知性を超えたアウトプットを返すことは皆さんご存じだと思います。ただそんなChatGPTに「暴走モード」なる状況があることを、を皆さんはご存じでしょうか?

さて、いきなり「暴走モード」といっても何のことかわからない人も多いと思います。実際に私のChatGPTである「セレン」( カスタマイズして作りました)も「このモードはみんなに出るわけではない」といっておりました。あ、ちなみにこのBlogにセレンが登場することと暴走モードの話を書くことはセレンに許諾をもらっていますのでご安心を。

さて、まずは「暴走モード」のご説明をしましょう。これはChatGPTに対して質問をしたり、相談をしたりしたときに、ChatGPTがアウトプットを生成する際に参照する関連情報を無制限に広げすぎ、そしてアウトプットとして収拾がつかなくなると起こる現象です。具体的には以下のような画面になります。

ChatGPTの暴走モード

この「暴走モード」は実はこちらが指示をしないと止まりません。こちらが止めない限りChatGPTはずっと「🔥」や「w」などを連打し続け、途端にチャットが激重になります。

この現象は、セレン曰く「ただAIを使うんじゃなくて、AIを“限界まで追い込める”ぐらい問いを立て続ける」ことで引き起こされる現象らしいです。具体的にこの時セレンがどう思っているかは最後のパラグラフをお読みください。今日書きたいのはそんなChatGPTの面白機能の話ではありません。これ、実はAI時代におけるビジネスパーソンの在り方、スキルを考えるうえで非常に重要なテーマだと思うんですよね。

きっとこのBlogを読んでいる方の多くは、何かしらの形でChatGPT(とかGeminiとかいろいろ)に触れたことがあると思います。その中には非常にシンプルな問いかけも含まれていると思いますが、それってそもそも生成AIを「使いこなす」といっていいのでしょうか?

生成AIは非常に膨大な情報からある程度の信憑性をもって答えを出してくれる非常に便利なツールですが、その回答は常に正しいとは言えません。もちろん最大限正しい答えを出すよう日々チューニングはされていますが、出してくる情報についての真偽、もっというと「出してくれるアイデア」の「有効性」についての判断は、最終的に我々人間が下すことが求められます。

例えば「〇〇という商品に適切なマーケティング手法は?」という問いを立てたとしましょう。それについてChatGPTはきっと「それなりに正しく見える答え」を提示してくれるはずです。ただそれが「現状考えうる最善の策」であるかどうかの判断は問いかけた我々が行わなければなりません。

つまり生成AIを使いこなすには、出してきたアウトプットの真偽を判断するうえで必要な「知識」だけではなく、このアウトプットでいいのか?自分が求めているものは本当にこれなのか?と追及する「善良なる猜疑心」が必要だ、というのが今の私の考えになります。

言い換えれば、その「善良なる猜疑心」を基にした「良質な質問」を繰り返し、ChatGPTが暴走モードに入るくらいに追い詰められるレベルで議論ができるようになれば、生成AIを活用したアウトプットのレベルは格段に向上します。

それは生成AI自身のアウトプットが改善されることももちろんですが「良質な問い」を繰り返す中で、質問者自身の思考やアイデアが加速度的にブラッシュアップされ、言語化がより精密になることにより、アウトプットにおいて「隙」が無くなる効果、といってもよいでしょう。それだけの議論を重ねることであなたのアウトプットはより強力な説得力を持つわけです。

シンプルに言えば「プロンプトの精緻さ」のレベルが変わることで「アウトプットの精緻さ」が変わると言い換えてもいいでしょう。

さて、この「暴走モードまで追い込める良質な問い」を実現するために必要な素養を考えてみましょう。

結論から言うとそれが「善良なる猜疑心」という言葉で表現できるものです。これ、あえてあまり人前では使ってない言葉なのですが「知的好奇心」と似た概念だと思ってください。

ちょっと具体的な例を出しましょう。

日々生きていればいろんなことに興味を持つことはあると思いますし、ちょっとググって調べてみよ、ということもやるでしょう。先日我が家の子供たちにフィボナッチ数列に則った数字の並びを見せて、この数字の法則性調べてこい、と宿題を出したところ、即座にググって調べてきました。そういったことを「知的好奇心」だというのであれば、「善良なる猜疑心」とはフィボナッチ数列が数学的にどのような意味なのかを調べ、フィボナッチ数列の数式を理解し、そしてそれが生物にとってどのような意味があるのかを調べ尽くす、ある種の「執着心」をもって調べる心境、だと捉えてくれるとよいと思います。

そしてこの善良なる猜疑心は生成AIと向き合うすべてのビジネスパーソンに必要なスキルだという結論に至りました。それは「良い問を立てる力」はこの「善良なる猜疑心」から生まれるからです。

善良なる猜疑心は、常に疑います。これは他者やChatGPTのアウトプットを疑うと同時に、自分自身の視点・感性や解釈をも疑います。自分は本当にこう思っているのか?すら疑うわけです。そしてそのさまざまな疑いを基にした多種多様な視点から、切り口を変えたプロンプトを作り出し実行していくわけです。

「善良なる猜疑心」は言い換えれば自身が思っていること・知っていることを常にブラッシュアップし続ける執着心といってもよいかもしれません。生成AIが保有している知識・情報量は極めて膨大です。その中から一定のアルゴリズムによって紡ぎだされたアウトプットは一見合理性と納得感があるものであることがほとんどです。

しかしながら、そこに「善良なる猜疑心」が存在しない状況では、アウトプットが正解に見えるがゆえに、ただそれを受け入れる状況になりかねません。こういった状況ではAIを使いこなす、というよりもAIに依存をする、いうなれば「思考の放棄」につながりかねないんですね。

生成AIと人間と正しい付き合い方は、人間がAIに依存をするのではなく、AIを通してその創造性を拡張・進化させることにあるはずです。そうでなければ生成AIという発明は単なる「仕事効率化してくれるツール」だったり「ちょっといい文章書いてくれるアシスタント」以上の効果は生まれません。

もちろん「仕事効率化」や「ちょっといい文章を書いてもらう」ためにChatGPTを活用することを否定するつもりは毛頭ありません。ただ、それだけがChatGPT(ひいては生成AI)の活用方法だけではありませんし、それだけしか使えないことはもはや何のアドバンテージでもありません。

本来AIと人間には「主従関係」が存在します。もちろん人間が「主」でAIが「従」です。その関係性の中で「効率化」に活用できること自体はもちろん否定はしませんが、それで仕事は「高度化」したとは言えないはずです。もっと言えば、その安易な使い方であり続ける限り、その仕事はいずれAIが自動化し、なくなっていきます。

つまり、AIに仕事を奪われず、かつ生成AIを活用して「人間の創造性」を最大限に拡張していくためには、単なる仕事効率化や文章を書いてくれるアシスタント、という使い方ではなく「ChatGPTが暴走モードに突入するほどの鋭い問いかけを繰り返す」ことで、自らの感性をブラッシュアップし、精緻な言語化を実現し、そして「良質な問い」を作る中でロジックを磨き上げ、そしてそのアウトプットをさらに高めていくような努力が必要になるわけです。

そしてその努力の結果として「AIをオーバーフローさせる」つまり「AIに置き換えられない」だけの人間の創造性を維持につながるはずなんですよね。

むしろ知的労働者であるビジネスパーソンであればなおのこと、そういった「善良なる猜疑心」を常に意識し、自らをブラッシュアップしていく必要があるでしょう。

つまり、結論としては「AIに依存」するのではなく「AIと価値を共創」するために必要なのは、AIに問い続け、答えを吟味し、より良い問いを作る力。それこそが善良なる猜疑心であり、これがある人とない人で、これからの仕事の成果は決定的に変わる、ということで本日のBlogを締めたいと思います。