突然ですがマジさん、AIは日々の仕事で活用できていますか?
もちろんですよ。これからの時代はAIを使いこなすことが全て。
僕レベルになるとAIを使っているというよりAIを育てている感覚に近いですけどね。
確かにAIを使いこなすことは大切です。
しかしそこには残酷な真実があります。
AIは使う人の仕事の実力によってその能力を大きく左右されるのです。
え、そうなんですか?
ええ。例えば新卒社員と経験豊富な営業部長が営業資料をAIを使って作ったとします。
当然営業部長の方が質の高い資料を作れるでしょう。
では実力のない人がAIの使い方を学んでも意味がないとでも?落ち着いた顔でなんて残酷な。
いえ、もちろん経験を積んで仕事の実力を磨くことは大事ですが、それだけではありません。
実は誰でも今日から使えるAIの実力を引き出す2つのコツがあるのです。
な、なんですかその甘い香りのする話は。皆が騙されないようにする必要があるので今すぐ僕だけに教えてください。
ただそのコツを理解するにはAIの仕組みを理解しておく必要があります。
コツを紹介する前に複雑なAIの仕組みを誰でもわかるようにご説明しましょう。
AIの「意外な正体」
今回AIの仕組みとしてお話しするのは多くのAIの頭脳として言葉を扱うことに使われているLLMについてです。
LLMとはラージランゲージモデル大規模言語モデルの略ですね。
LLM知っていますよ。確かチャットGPTに使われているものですよね。
ええ。チャットGPTなどの文章を生成するAIはまさにLLMを使った代表的なサービスと言えます。
LLMとはざっくり言うとユーザーのインプットに対して適切なアウトプットを返すものです。
インプットとアウトプット?
例えば電子レンジにインプットとして冷えたお弁当を入れるとアウトプットとしてあったかいお弁当が出てきますよね。
LLMは人間がAIにやってほしい指示すなわちプロンプトをインプットすると指示に従って適切なアウトプットを返してくれます。
なるほど、そういうことですか。
ちなみに画像生成や音楽生成に特化したAIにもざっくり言うとLLMのようなモデルが頭脳として使われています。
厳密な仕組みの差はありますがAIの上手な使い方は文章の場合と同じです。
大体のAIは同じように考えられるわけですね。
では早速このAIの脳みそといえるLLMの正体を明らかにしていきましょう。
LLMがとっつきにくいと感じる方はチャットGPTのようなAIの話をしていると捉えていただければ十分です。
わかりました!
LLMの正体を誰でもイメージできるように一言で例えるなら思いつきで話す記憶力ゼロの天才と言えます。
「思いつきで話す、記憶力ゼロの天才」とは?
思いつきで話す記憶力ゼロの天才ですか?僕のこと言われたのかと思いました。
違います。ここからは思いつきで話すと記憶力ゼロの天才の2つに分けて順にご説明します。
まず思いつきで話すについて。
LLMはこちらの伝えた文章の意味を汲み取って回答を生成しているように見えますが、実は話の内容を何も理解していません。
ただそれっぽい言葉を次々に生成しているだけです。
確かにそう聞いたことがあります。
でもただの当てずっぽでどうしてあんなに自然な回答ができるのですか?
入力された文章の次に来る確率が最も高い言葉を非常に高精度で当てられるように、膨大な文章データで訓練された結果です。
これはもしAならBを返すというような、単純なプログラムの条件分岐ではありません。
入力された文章に適した「最もそれっぽい次の言葉」を計算で予測しているのです。
なるほど。予測というと、なんだかスマホの予測変換みたいですね。
良い例えです。まさにLLMは超優秀な予測変換と考えられます。
しかし、スマートフォンの予測変換とは決定的な違いがあります。
それはLLMが空気を読めることです。
どういうことです?
具体的な例で見てみましょう。例えば緊急事態です。会議室で火災報知器が鳴っています。
すぐにという文章があったとします。
このすぐにの次に来る言葉として何が適切だと考えられるでしょうか?
避難してくださいとかですかね。
そうですね。しかし、もしスマホの予測変換でこの文章を打つとしたら、直前の「すぐに」という言葉だけしか読み取れず、すぐに行きます、や、すぐに終わります、といった一般的な続きを提案してしまうでしょう。
火災報知器という重要な文脈を、理解できないからです。
なるほど。それがLLMだと文脈を理解して状況にあった言葉を選べるんですね。
その通りです。LLMは入力された文章全体を参考にできるので、その次に最も適切な言葉を選び出すことができます。
つまり予測の参考にできる情報が多いからLLMは空気を読めるというわけですか。
ええ。ちなみにLLMが予測の参考にできる文字量は何十万文字にも及びます。
な、何十万文字?想像もできない量です。
それだけ多くの情報量を処理できるのは、2017年にGoogleが発表したトランスフォーマーという技術のおかげです。
この技術によって、たとえ長い文脈の中からでも次の言葉に関係の深い情報だけをピンポイントで見つけ出せるようになりました。
さすがはGoogle。僕の存在が彼らにインスピレーションを与えたのかもしれません。
このようにして思いつきの回答の精度が非常に高いものになったため、LLMはまるで人間のように思考しているように見えたり、対話のような自然な回答ができたりするわけです。
ちなみにこの技術を多くの人が簡単に使えるよう調整したのがあのチャットGPTです。2022年11月に一般公開され、その驚きの性能からたった2ヶ月で1億ユーザーを獲得しました。
ここまでLLMの仕組みとして思いつきで話すについてお話しました。
次に記憶力ゼロの天才とはどういうことかご説明しましょう。
天才なのに記憶力がゼロとは一体?
実はそもそもLLM自体に人間のような記憶という概念はありません。
マジさんとの対話もLLMは一切記憶学習していないのです。
え、僕と交わした数々の名対話の記憶がない?
LLMとの対話は次のような状況に例えることができます。
マジさんが1週間のサマーキャンプに参加したとしてその間濃い時間を共に過ごした親友ができたとします。
でも実はその親友にはずっと記憶がなかったのです。
えっ、毎日初対面を繰り返していたということですか?
ええ、会話中マジさんに返事をする前の一瞬で毎回それまでの会話の記録要約を見てそれっぽいことを予測で話していただけ。
まるで過去のことをずっと覚えていたかのように振る舞っているだけだったというわけです。
なんと、では僕との友情は見かけだけのまやかしだと。
少し寂しい話ですが、仕組みとしてはその通りです。
私たちがチャットで文章を送るたびにLLMはそれまでのやり取りを毎回読み込んで文章を生成しているのです。
毎回一瞬で文章を読み込んで記憶があるかのように振る舞えることが記憶力ゼロの天才と言える理由なんですね。
ただ注意点として1回の処理でLLMが読み込める情報量には上限があります。専門用語でコンテキストウィンドウと言いますね。
天才のLLMといえど思考のキャパがあるのです。
聞いたことあります。確かGoogleのGeminiが膨大なコンテキストウィンドウを持っているとか。
よくご存知ですね。コンテキストウィンドウが大きいほど長い文章を一度に処理でき、長い対話を続けることができるため、LLMの性能を測る指標の1つにもなっています。
参考までに、主要な最新LLMのコンテキストウィンドウの上限の比較をご紹介しましょう。
ChatGPT、Anthropic社のClaude、GoogleのGeminiの最新モデルです。実はClaudeのSonnetもGoogleのGeminiに並ぶ思考のキャパを持っているのです。
ちなみにこのトークンというのLLMが情報を処理する量の単位です。
LLMは例えばおはようございますをおはようとございますのように言葉を意味の塊に分解して処理しているのです。
それにしても思考のキャパがあるなんて人間みたいですね。
ええ、上限の理由様々ありますが1つは先ほど紹介したトランスフォーマーという技術の限界です。
非常に長い文章から重要な情報を見つけるには時間がかかる上情報の見落としが増えてしまいます。
そこで各ツールで回答の速さと質を担保するため一度に処理できるトークン数に上限を設けているのです。
仕組みの振り返り
ここまでの話をまとめましょう。LLMは思いつきで話す記憶力ゼロの天才。
入力された文章から次に来る言葉を予測して回答します。
対話の記憶はできず毎回チャットの内容を読み込んでいます。
その読み込める量には限界があります。
つまり毎回その場の文脈だけを頼りに必死に次の言葉を考えていたということなんですね。
ええ。ではマジさんこれらの仕組みを踏まえたからこそ分かるLLMの性能を最大限に引き出すための明日から使える2つの具体的なコツをご紹介しましょう。
AIの使い方のコツ2つ
1つ目のコツはまず計画だけさせる。
特にAIに複雑な仕事をさせる際に有効です。
例えば自社のサービス改善のために競合調査をするとしましょう。
この場合いきなり競合調査をしてと指示するのではなく競合調査の作業計画を立ててとまずは手順を整理させるのが得策です。
え、二度手間じゃないですか?いきなり進めてもらった方が早そうですよ。
先ほどお話ししたようにLLMには思考のキャパがあります。
一度に複数の指示をすると重要な情報を見落としやすいのです。
なるほど。つまり天才AIといえど大きな仕事を丸投げされると困ってしまうと。
はい、人間が大きなプロジェクトに挑む際にまず計画を立てるのと同じ理屈です。やるべきことを1つに絞ってあげることがLLMの能力を最大限に引き出す鍵です。
では先程の競合調査の例をより具体的に見てみましょう。
実際にチャットGPTを使って指示してみます。
前提情報として自社のサービスに関する情報は記載しておきましょう。
この後やってしまいがちなのが自社サービス改善のために競合の調査をしてとざっくりと丸投げすることです。
前提情報を記載しているのに丸投げと言われてしまうとは。ではどうすれば?
やりたいことを伝えまずその作業計画を立てるよう指示します。
例えば自社サービス改善のために競合の調査をしたい。
まずどのように進めるのが良いか作業計画を立てて私の確認を取ってのような具合です。
実行するとこのように競合調査の作業計画が出力されます。
ほお、まるで優秀なコンサルタントの計画立案ですね。
ええ、ただこの計画を詳しく見てみると修正すべき点があるかもしれません。
例えば最後のアクションプランの提案は分析結果の解釈次第で大きく変わるので初めからAIにやってもらう必要はないでしょう。
確かに。
このように作業前に計画を立てさせておけば計画時点で改善点に気づいて修正できます。
全部出力された後だと確認する文章量が多くて余計に時間がかかってしまいますから。
AIに計画の最後のステップは勝手に進めないよう伝えるとこのように計画を修正してくれました。
こうして計画が納得できるものになって初めて修正した計画に従って進めてくださいと実際に作業を行う指示を出すのです。
AIの使い方2つ目のコツはダメ出しよりやり直し。
AIの回答が微妙だと感じたらチャットを続けて修正指示を出すより元の指示をより的確なものに改善して指示し直す方が賢明です。
しかしマスター、AIの回答に対して違う、そうじゃない。
こうしてと少しだけ直したい場面は往々にしてありますよ。
その気持ちは分かります。しかし修正のやり取りを重ねていくとAIとのやり取りに矛盾した指示や不要な情報といったノイズが溜まっていきます。
先ほどお伝えしたように、LLMは毎回チャットのやり取りを読み込むため、ノイズが多いやり取りでは重要な指示が文脈に埋もれてしまったり、矛盾した指示に混乱してしまったりするのです。
簡単な例として取引先へのメール作成という場面で実際にやってみましょう。
例えば取引先との商談を先方からお礼のメールが届いたとします。
そのメールをAIに読み込ませてお礼の返信と次回の商談の日程候補を提示したい。
丁寧なメール文を作ってとお願いします。
よくある指示ですね。
AIに指示したらこのような文章が出てきました。
しかし丁寧すぎて堅苦しいのでもう少し打ち解けた文章にしたいと思ったとします。
次は堅苦しすぎるからもう少しフレンドリーにと指示する。
すると今度は、このように馴れ馴れしすぎる文章が出てきてしまいました。
あー、こういうやり取り、やったことあります…。
はじめに与えた指示と矛盾した指示を与えるとAIの出力は悪くなります。
そしてまた、AIの微妙な回答に追加の『ダメ出し』を重ね、貴重な時間を浪費してしまうのです。
うっ。いつまでも微妙な回答しか出せないAIにいつもイライラしていましたが、僕の指示のせいかもしれないとは…。
では、ダメ出しではなく最初のAIへの指示を変えます。
『丁寧なメール文を作って』という曖昧な指示を、例えばこのように修正するのが良いでしょう。
『丁寧さを保ちつつも、信頼できるパートナーとして親しみやすさも感じられるトーンでメールを作ってください』とより具体的に書き直してやり直します。
するとこのように、ちょうどいい丁寧さのメールができましたね。
ちなみに、今は見やすいようChatGPTを使いましたが、私は普段Cursorという、AIありきで文章を作成できるツールを使っていてオススメです。
Cursorの詳しい話は別の機会にお話しします。
結論:仕組みを制する者が、AIを制す
ここまで、非常に多くのAIの頭脳として使われているLLMの仕組みと、それを踏まえた具体的なAI活用のコツについてお話ししてきました。
僕が良かれと思って続けていた『ダメ出し』が、逆にAIを混乱させていたなんて…。
LLMの『思いつきで話す、記憶力ゼロの天才』という仕組みも、腑に落ちました!
素晴らしいですね。その理解こそ、AIを使いこなすための重要な一歩です。
AIの仕組みを理解しているからこそ、本日お伝えした2つのコツ、『まず計画だけさせる』と『ダメ出しよりやり直し』を使いこなせます。
はい!今日から教わった2つのコツを使いこなして、AIの実力を最大限引き出してみせます!
ええ、楽しみですね。今回のお話が皆さんのお役に立てば幸いです。
それではまた次回、お会いしましょう。