The Real Reason Why ChatGPT Isn't Widely Used in CompaniesChatGPTを社内に配ってもあまり使われない本当の理由

Introduction

2023 is often called the "Year One of ChatGPT," where ChatGPT became a topic of discussion not only in the tech industry but across all sectors, and this momentum shows no signs of slowing down in 2024 and beyond 2025.

During this unprecedented ChatGPT boom, companies began initiatives to use ChatGPT internally, making headlines daily.

You've probably seen many news articles like "Company X deploys ChatGPT to approximately 10,000 employees, aiming to improve productivity across all staff."

Not wanting to fall behind early adopters, many companies rushed forward thinking "We need to do this quickly too!" and similarly proceeded with initiatives to distribute ChatGPT internally.

However, data from companies that led early adoption is now emerging, and when we look at actual usage, despite all the attention ChatGPT has received since 2023 and the media frenzy it has caused, overall usage remains at around 10% or less.

This "around 10%" result represents a significant gap from initial expectations, with many negative comments like "We thought more people would use it, but it's being used much less than expected..."

In this article, I'd like to examine "Why isn't ChatGPT being used much internally even though it received so much attention?" - exploring the root causes of this gap and the challenges we should truly be addressing.

Note: While "LLM" would be the technically correct term to use, I'll continue using "ChatGPT" for easier understanding by a broader audience.

Why Isn't ChatGPT Being Used Much Internally Even After Distribution?

So why is ChatGPT being used less internally than initially expected?

In many cases, this expectation gap is attributed to two main factors:

  • ChatGPT isn't as useful as expected (ChatGPT is at fault)
  • There are problems with employee literacy (Employees are at fault)

In other words, many cases blame either ChatGPT's performance issues (it's still developing and unusable due to hallucinations, etc.) or employees' inability to use it properly (education is needed).

While these factors do play a role, to get straight to the point: ChatGPT will continue to improve but is already sufficiently capable, and the problem isn't with employee literacy either.

Particularly in cases where employee issues are blamed, we see executives loudly proclaiming "Why aren't they using it more! They should be using it more in their daily work!" and companies rushing to implement ChatGPT training for employees.

However, from the employees' perspective, they're honestly just confused by being told to "use it more."

In many surveys, when asked "Why don't you use ChatGPT?", the most common response is "I don't know where to use it."

However, this should be understood not as "I can't use it because I don't know how" but rather "There aren't many places where I can use it."

I often said "It's fine to distribute ChatGPT internally for now, but most people probably won't use it much," and the 10% figure actually reflects reality. The real problem isn't with ChatGPT or employee literacy, but with the expectations themselves.

In other words, the problem lies in the low resolution of providers' expectations that "If we distribute ChatGPT, it will be used more internally."

So why isn't ChatGPT used much internally just by distributing it? This becomes clear when we consider the mapping between what ChatGPT can do and internal business operations.

What ChatGPT Can Do

In most cases, companies have simply distributed it (made it available to employees), so let's consider vanilla ChatGPT as our premise.

What vanilla ChatGPT can do broadly falls into two categories:

  1. Tasks that can be solved with general knowledge
  2. Tasks that can be solved by searching for the latest information on the web

First, while GPT has a data cutoff at a specific point in time, all tasks that can be solved with general knowledge up to that point fall under category 1.

This includes commonly mentioned summarization, idea generation, and draft creation. Since it also has scientific and historical knowledge, all tasks based on publicly known information can be solved. Programming code generation and environment setup also fall into this category with impressive accuracy, as they're based on public information.

However, since it only has data up to a specific point in time, some tasks require access to the latest information, which can be solved by category 2.

For example, when you need the latest news, paper information collection, constantly updated technical information, or market trend research, these can be solved through web search in category 2.

As some may have already noticed, the tasks vanilla ChatGPT can solve are essentially those based on public information. It has mastered humanity's collective knowledge up to a certain point and can access the latest internet information, so it can basically solve all tasks within that scope.

So why doesn't internal usage progress as expected with just these features?

Mapping ChatGPT Capabilities to Business Operations

Let's break down the internal business operations that would be ChatGPT's application targets.

Building on our context so far, internal business operations can be broadly divided into three categories:

  1. Tasks that can be solved with general knowledge
  2. Tasks that can be solved by searching for the latest information on the web
  3. Tasks that require internal company information

While tasks in categories 1 and 2 can be solved with vanilla ChatGPT, tasks in category 3 that require internal information cannot be solved by vanilla ChatGPT.

The significant variation in ChatGPT usage within companies isn't due to literacy issues but simply occupational differences - the more tasks in categories 1 and 2 in your work, the greater your potential for ChatGPT utilization.

Areas with particularly high utilization potential include planning/marketing, researchers, and IT engineers.

In planning/marketing, ChatGPT can be utilized for various tasks within categories 1 and 2, including idea generation, brainstorming with virtual personas, copy creation, and trend research.

Researchers benefit significantly from productivity gains through category 2's latest paper and data research/summarization, and it's highly valuable for output scenarios like writing papers and reports. Translation and proofreading are particularly valuable.

Personally, I think IT engineers see the most dramatic productivity gains - having it write base code, researching technical areas you're less familiar with, and various environment setups are extremely helpful.

Questions like "I know how to do this in AWS, but how do I do it in Azure?" or "How do I write this process in this language?" - tasks that previously required half a day to several days of searching through various sources can now be solved in minutes. This past year, I personally felt tremendous productivity gains in this area.

What's common among these ChatGPT-friendly domains is that they involve "tasks solvable with public information."

However, in most companies, these job categories don't represent the majority. For the majority in other job categories, most of their work falls into category 3.

This is because most internal business operations are based on internal rules and documentation, making tasks that can be solved without internal information extremely limited.

This tendency becomes more pronounced in larger organizations. As the number of people involved increases, the organization cannot function orderly without certain rules.

In other words, tasks solvable within categories 1 and 2 represent only about 10% overall, while the majority are category 3 tasks requiring internal information, which is why vanilla ChatGPT usage remains around 10%.

Let's personify this to make it clearer.

What vanilla ChatGPT represents is like hiring an incredibly talented person, giving them internet access, but completely isolating them from all internal information.

This person knows everything about general knowledge, can use any language, and can write programming code. They're probably unmatched in the company when it comes to web searches. You can ask this person anything through chat.

However, this person knows nothing about internal information and cannot access it. They don't know the internal organization structure, who works in the company, standard business processes, approval processes, what systems are used, salary regulations, work regulations, or which companies are clients - they cannot know any internal information.

So while this person is incredibly talented, when you ask "What do I need to do first to proceed with this task?" "Where can I find this information in our internal documents?" "Which positions from which departments should I invite to this meeting?" "What approach should I take in the next meeting with this client?", they can only respond with "I'm sorry, I don't know."

It's the same as hiring a Harvard graduate with an MBA and impeccable business credentials - they won't perform brilliantly from day one. Because without the context of internal information, no matter how talented, they first need to catch up.

For people whose work mostly requires the context of internal information, distributing vanilla ChatGPT naturally means there's little they can use it for.

I use ChatGPT daily myself, and while I can't work without it for technical paper research and programming tasks, I hardly ever use it for summarization, idea generation, or document drafting.

As long as ChatGPT cannot access internal information, this situation won't change regardless of how much ChatGPT's performance improves. While educating users on ChatGPT and teaching prompt engineering is certainly good, this is like learning how to better communicate with that talented person isolated from internal information - it's not addressing the core issue but rather trying to squeeze more from an already wrung-out cloth.

What We Should Really Work On to Bridge the Gap

So what should we really work on to bridge the gap? It's not complaining about ChatGPT's performance or lamenting users' IT literacy. As should be obvious from our discussion, it's giving ChatGPT the context of internal information.

Using our earlier analogy, while there's limited work you'd want to delegate to an incredibly talented person who has zero access to internal information, what if this person was well-versed in internal information?

When you ask "How do I use this internal system again?" "I can't find the internal regulations file..." "This department seems new, what's their mission?" "What approach should I take in the next negotiation with this client?", unlike the isolated state, they would now give you immediate answers.

Additionally, they would provide information you didn't even know existed, like "Regarding that department's policy, this document was issued internally recently. Here's the link." or "Last week, Manager ●● had a meeting with △△ Company, and here's the meeting minutes."

To put it simply, this means "Let's properly implement RAG," but by enabling ChatGPT to respond and handle tasks based on internal information, it can now cover category 3 areas that vanilla ChatGPT couldn't handle, dramatically increasing the number of users.

An incredibly talented person who probably knows more about the company than anyone else will support you 24/7/365, never complaining even if you ask questions somewhat roughly, always ready to help you.

In other words, the strategy to bridge the gap in internal usage becomes: "How much can we improve the level of RAG that provides internal information context?"

More Specific Keywords

For those who find this still too abstract, in more specific terms: the first thing to work on is giving ChatGPT internal information and working towards zero instances of "asking people" or "searching for information" within the company.

The value-add of work lies in transforming input information into valuable output, but there's no value in spending time understanding already-known internal information, so this time should be minimized to zero.

Moreover, as labor shortages are increasingly discussed, interpersonal communication time should be used for idea-generating discussions and decision-making, so time spent just being taught internal information that could be looked up should also be minimized to zero.

In a society where job changes are becoming normal and mobility continues to increase, this will become essential as internal infrastructure.

For people accustomed to an environment where ChatGPT is well-versed in internal information and basic internal matters can be understood by asking ChatGPT, having to "ask people for everything" would be incredibly cumbersome, making it difficult to recruit talented digital natives.

First, enable ChatGPT to have internal information as context, then work towards zero instances of employees "asking" and "searching." Then, in the next phase, move into the "delegating tasks" phase. Since it would obviously be wasteful to only have ChatGPT handle Q&A when it's well-versed in internal information, gradually delegate actual tasks as well.

In any case, "ChatGPT being able to access internal information" becomes the prerequisite.

Summary

How was this article?

The essence of the gap between expectations and reality - that ChatGPT isn't being used as much as expected - isn't due to ChatGPT's performance deficiencies or employees' literacy issues, but because ChatGPT knows nothing about internal information and therefore has limited applications.

Does this mean distributing vanilla ChatGPT internally is meaningless? Absolutely not. As mentioned, people in areas with high utilization potential find it extremely valuable, so this itself is a must. Rather, they couldn't work without it.

However, there's significant occupational bias, with overall usage at around 10%, which isn't a gap from expectations but rather meets expectations in a sense.

Of course, ChatGPT's performance will continue to improve, and employee education should proceed in parallel, but the highest priority isn't there - it's establishing an environment where ChatGPT can function with internal information included.

While 2023 was about "distributing ChatGPT internally and trying it out," as some companies have already begun working on, shouldn't 2024 and beyond be about seriously working on "creating internal experts who support all employees" in the realm of business efficiency and automation?

Naturally, this isn't a zero-or-one issue, so work needs to begin early and continuously level up. And since internal information and its understanding are key, this is an area that's difficult to completely outsource to external vendors, including decisions about information necessity and evaluation.

I hope this helps in properly understanding what "ChatGPT usage remaining at around 10%" means and connecting it to the next strategic initiatives.

はじめに

2023年はChatGPT元年とも言われ、いわゆるテック業界だけでなく、あらゆる業界でChatGPTが話題となり、その勢いは2024年、2025年以降も留まる所を知りません。

この空前のChatGPTブームの中で、企業内でもChatGPTを利用しようという取り組みが進み、連日ニュースでも取り上げられていました。

皆さんも「〇〇会社、ChatGPTを従業員約1万人に展開。全従業員の業務効率化を目指す。」といった内容のニュースをよく見かけたのではないでしょうか?

先行企業に遅れを取らないよう「うちも早くやらないと!」と、同じようにChatGPTを社内に配る取り組みを進める企業が相次ぎました。

しかし、最近になって先行導入を進めた企業のデータが出始めており、実際の利用状況を見てみると、2023年以降これだけChatGPTが注目され、メディアを騒がせたにも関わらず、全体の利用状況は1割程度かそれ以下に留まっているという状態になっています。

この「1割程度」という結果は、当初の期待値とのギャップが大きく「もっとみんな使うと思っていたのに、思っていたより使われていない。。」という形でのネガティブな内容が多くなっています。

今回は、「なぜこれほど注目されたにも関わらず、ChatGPTを配っても社内であまり使われないのか?」というギャップについて、その真因と本当に取り組むべき課題について考えていきたいと思います。

※以下、本来であれば「LLM」という単語を使うべきですが、多くの人がイメージしやすいよう「ChatGPT」という表現をこのまま使います。

なぜChatGPTを配っても社内であまり使われないのか?

さて、それではなぜ、ChatGPTは当初の想定より社内で使われていないのでしょうか?

多くのケースにおいて、この期待値のギャップとして、大きく以下の2つの要因に帰結されています。

  1. ChatGPTが思ったより使えない(ChatGPTが悪い)
  2. 従業員のリテラシーに問題がある(従業員が悪い)

つまり、ChatGPTの性能面に問題がある(ハルシネーション等もあり、まだまだ発展途上のため使えない)とするか、上手く使いこなせない従業員のリテラシーに問題がある(教育が必要)かのどちらかが原因だと考えるケースが多いようです。

もちろんこの要素もあるのですが、結論から言ってしまうと、ChatGPTは今後更に改善していくものの既に十分に優秀であり、従業員側のリテラシーが問題である訳でもありません。

特に、②の従業員側に問題があると考えるケースにおいては、「なんでもっと使わないんだ!日々の業務でもっと使うべきだ!」と声高に言う経営層の方達や、「もっと教育を実施しないと」と急いで従業員向けのChatGPT活用研修を実施する企業も少なくありません。しかし、従業員側の視点としては、「もっと使えと言われても。。」と正直困惑する一方でしょう。

多くのアンケートでは、「なぜChatGPTを使わないのか?」という質問に対し、「使いどころがわからない」という回答が多数を占めますが、これは、「使い方がわからないから使えない」のではなく、「使えるところがあまりない」というのが正しい捉え方になります。

私もよく「ChatGPTを社内にとりあえず配るのはいいですけど、ほとんどの人はおそらくあまり使わないですよ」と言っていましたが、1割程度というのはそもそも実態に即しており、本当の問題はChatGPTでも従業員のリテラシーでもなく、そもそもの期待値側にあります。

つまり、「ChatGPTを配れば、社内でもっと使われると思っていたのに」という期待値における、提供者側の解像度の粗さに問題があるという事です。

では、なぜChatGPTを配るだけでは社内であまり使われないのかというと、この点については、ChatGPTにできる事と、社内業務とのマッピングを考えると見えてきます。

ChatGPTにできる事

ほとんどのケースでは、社内にとりあえず配った(従業員が使えるようにした)という状態だと思いますので、以下では、素のChatGPTという前提で考えていきます。

では通常のChatGPTでできる事はなにかというと、大きく以下の2つになります。

  1. 一般論で解けるタスク
  2. 最新情報のWeb検索で解けるタスク

まず、GPTは特定の時点のデータまでというカットオフがあるものの、その時点までの一般的な知見に基づくもので解けるタスクは全て1で解けます。

つまり、よく言われる要約やアイディア出し、文章のドラフト生成がこの辺りになり、科学や歴史の知識も備えているため、既に公然の事実となっている情報に基づくタスクは全て解けます。プログラミングのコード生成や環境設定等も公開情報であるため、この辺りは素晴らしい精度で対応してくれます。

しかし、あくまで特定の時点までのデータしか持っていないので、タスクによっては最新情報へのアクセスが必要な場合があり、このような場合は2で解けます。

例えば、最新のニュースや、論文の情報収集が必要な場合、アップデートが日々繰り返される技術系の情報の収集や、マーケットトレンドの調査等は2のWeb検索で解けるという事です。

既に気付いた方もいるかと思いますが、素のChatGPTに解けるタスクは、要するに公開情報に基づくものだという事です。特定の時点までの人類の英知は把握しており、最新のネット情報にも手が届くため、その範囲で解けるタスクは基本的に全て解けます。

ではなぜ、この機能だけでは思うように社内での利用が進まないのでしょうか?

ChatGPTにできる事と業務のマッピング

それではChatGPTの活用先となる社内業務側を分解していきましょう。

ここまでの文脈も踏まえつつ、社内業務を大きく分解すると以下の3つになります。

  1. 一般論で解けるタスク
  2. 最新情報のWeb検索で解けるタスク
  3. 社内情報が必要なタスク

つまり、1と2の範囲で解けるタスクは素のChatGPTで解けますが、3の社内情報が必要となるタスクは、素のChatGPTには解けないという事です。

そして、社内でChatGPTの利用者に大きく偏りが出るのは、リテラシーの問題ではなく、単に職種の話で、1と2で解ける範囲の業務が多いほど、ChatGPTの活用素地が大きいという事になります。

特に活用素地が大きいのは、企画・マーケティング, 研究者・リサーチャー, ITエンジニアといった領域になります。

企画・マーケティング等の領域では、アイディア出しや仮想ペルソナとのブレスト、コピー作成、トレンド調査等を含め、①と②の範囲で様々なタスクに活用できます。

研究者やリサーチャーといった人達は、2の最新の論文やデータの調査・要約でかなり生産性が上がると思いますし、論文やレポートの執筆といったアウトプットの場面でも活躍する機会が多いでしょう。特に翻訳と校正は重宝するのではないでしょうか。

個人的に圧倒的に生産性が上がるなと思っているのがITエンジニアで、ベースとなるコードを書いてもらったり、自分があまり詳しくない技術領域や様々な環境設定の調査などで非常に重宝します。

「AWSだとこうだけど、Azureだとどうやるんだっけ?」「この処理ってこの言語だとどう書けば良いんだろう?」というように、今までであれば半日~数日は色々なソースを辿って調べる必要があったタスクが数分で解けてしまったという事も多々あり、私自身、この領域においてはとてつもなく生産性が上がったなと感じた1年でした。

このようにChatGPTが使いやすい領域に共通しているのは「公開情報で解けるタスク」だという事です。

とはいえ、多くの企業においては、このような職種の人達の母数が多いわけではありません。どちらかというと母数の多いそれ以外の職種の人達がどうかというと、ほとんどの業務が③の領域になります。

というのも、社内業務のほとんどは、社内の規則やドキュメントに基づいて回っているため、社内情報がない状態で解けるタスクというのは非常に限定的になるためです。

またこれは、大きな組織ほど顕著になります。関わる人数が多くなると、一定のルールがないと秩序立って組織が回らないためです。

つまり、①と②の範囲で解けるタスクが全体としては1割程度で、社内情報が必要な③のタスクが大半を占めるため、素のChatGPTの利用率は1割程度に留まるという事です。

少しわかりやすくするために擬人化して考えてみましょう。

素のChatGPTがつまりどういう状態かというと、とてつもなく優秀な人材を採用して、インターネットが使える環境は与えるものの、社内情報には一切アクセスさせない状態に隔離している状態になります。

この人材は一般的な知識については何でも知っており、あらゆる言語も使いこなす上に、プログラミングのコードも書けます。Web検索についてはおそらく社内で右に出る人はいないでしょう。あなたはこの人材にチャットを通して、何でもお願いする事ができます。

しかし、この人材は社内情報については一切知らず、アクセスする事はできません。社内の組織はもちろん、社内にどういう人がいるのか、業務の標準プロセスや承認プロセスがどうなっているのか、どういうシステムを使っているのか、給与規定や勤務規程がどうなっているのか、取引先にはどういう会社があるのかなどの社内情報は何も知る事ができないという事です。

つまり、この人材はとてつもなく優秀なのですが、「この業務を進める場合、最初に何をする必要がありますか?」「この情報は社内情報のどこを見ればわかりますか?」「この会議はどの組織のどの職務の人まで呼んだ方が良いですか?」「次のお得意先との打ち合わせで、どういった商談内容で進めると良いでしょうか?」と聞いても、「申し訳ありませんが、私にはわかりません」という以上の回答は出てきません。

ハーバード卒でMBAも持っており、ビジネスの実績も文句なしの優秀な人材を採用したとして、入社初日からいきなり活躍する事はないのと同じ話です。なぜなら社内情報というコンテキストが何もないため、どれだけ優秀だとしても、まずはキャッチアップが必要だからです。

社内情報というコンテキストが必要な業務がほとんどである人達に、素のChatGPTを配っても、特に使える所がないというのはいわば当たり前の話です。

私も毎日ChatGPTは使っていますが、技術系の論文の調査やプログラミング周りでは、もはやないと仕事が回らないレベルになっている一方で、要約やアイディア出し、文書のドラフト作成などはほとんどと言っていいほど使いません。

ChatGPTが社内情報にアクセスできない以上、ChatGPT自体の性能が今後どれだけ上がってもこの状況は変わらないですし、ユーザーにChatGPTの教育を実施して、プロンプトエンジニアリングを学ばせるのはもちろん良い事だとは思いますが、これは先ほどの社内情報から隔離された優秀な人材への上手い聞き方を学ぶというような話なので、本丸の対策ではなく、どちらかというと雑巾を更に絞りに行くような話だと言えるでしょう。

ギャップを埋めるために本当に取り組むべき事

では、ギャップを埋めるために本当に取り組むべき事は何かというと、ChatGPTの性能面に文句を言う事でも、ユーザーのITリテラシー不足を嘆く事でもなく、ここまでの流れから自明なように、ChatGPTに社内情報というコンテキストを持たせる事です。

先ほどのアナロジーで言えば、めちゃくちゃ優秀なものの社内情報に一切アクセスできない人材にお願いしたい事はかなり限られますが、この人材が社内情報を熟知しているとしたらどうでしょうか。

「この社内システムってどう使えばいいんだっけ?」「社内規定のファイルが見当たらないんだけど。。」「この部署って最近できたみたいだけどどういうミッションの部署なの?」「この取引先と次の商談でどういう進め方が良い?」と聞くと、先ほどの隔離された状態とは打って変わって即答してくれるようになるでしょう。

加えて「〇〇部署の方針として、先日このような文書が社内に発行されています。リンクはこちらです。」「先週、●●部長が△△会社と商談されており、その議事録はこちらです。」というような、そもそも知らなかった追加の情報も教えてくれるでしょう。

一言で言ってしまえば、「RAGをちゃんとやりましょう」という事になりますが、ChatGPTが社内情報に基づいた回答やタスクをこなせるようになる事で、素のChatGPTでは対応できない③の領域も守備範囲に入るため、一気に利用者が増える事になるでしょう。

おそらく社内の誰よりも社内に詳しいであろうめちゃくちゃ優秀な人が、24/365であなたをサポートしてくれるようになり、多少乱暴な聞き方をしても文句一つ言わず、あなたを助けてくれるようになります。

つまり、社内の利用状況のギャップを埋めるための施策としては、「社内情報のコンテキストを持たせるRAGのレベルをどれだけ上げていくか?」という事が真に問うべき論点になります。

より具体的なキーワード

まだちょっと抽象度が高いという方向けに、より具体的なキーワードにすると、まず取り組むべきは、ChatGPTに社内情報を持たせ、社内の中で「人に聞く」「情報を探す」という行為を極力ゼロにしていきましょうという事です。

仕事の付加価値は、インプットとなる情報を価値のあるアウトプットに変換する事にありますが、そもそも既知である社内情報等の把握に時間を使う事に付加価値はないため、この時間は極力ゼロにしていく必要があります。

また、人手不足が叫ばれる中で、対人のコミュニケーションの時間はアイディアを創出するためのディスカッションや、意思決定のために使うべきであるため、調べればわかる社内情報を教えてもらうというだけの時間も極力ゼロにしていくべきです。

転職が当たり前になりつつあり、流動性が更に高まっていく社会において、これはある種、社内インフラとして必須になってくるでしょう。

ChatGPTが社内情報を熟知しており、社内の基本的な事はChatGPTに聞けばわかるのが当たり前の環境にいた人達にとって、「いちいち人に聞かないとわからない」というのはあまりにも煩雑であり、優秀なデジタルネイティブ世代の採用も難しくなってくるでしょう。

まずはChatGPTに社内情報をコンテキストとして持てるようにした上で、従業員の「聞く」「探す」という行為を極力ゼロにしていきます。そして、その次のフェーズとして「タスクを任せる」というフェーズに入っていきます。社内情報を熟知したChatGPTに質疑応答だけをやってもらうのは当然勿体ないので、徐々にタスク自体もお願いしていけば良いという事です。

いずれにしても「ChatGPTが社内情報にアクセスできる事」が前提になってきます。

まとめ

いかがだったでしょうか。

ChatGPTが思っていたよりあまり使われないという期待値とのギャップの本質は、ChatGPTの性能不足でも従業員のリテラシー不足でもなく、ChatGPTが社内情報を何も知らないのであまり使い所がないからという事になります。

では、素のChatGPTを社内に配る事に意味はないのかというとそんな事は全くありません。既に述べたように、使う素地の大きい領域の人達は非常に重宝するので、これ自体はマストでやるべきです。むしろ、ないと仕事にならないでしょう。

ただ、職種による偏りが大きく、全体としては1割程度で、これは期待値とのギャップがあるわけではなく、ある意味期待値通りという事になります。

もちろん、ChatGPTの性能は今後更に改善されていきますし、従業員への教育等も並行して実施していくべきだと思いますが、最も優先すべきはそこではなく、ChatGPTが社内情報も踏まえた上で機能できる環境を整える事です。

2023年は「とりあえず社内にChatGPTを配って使ってみる」という状態だったと思いますが、既に一部の企業では取り組み始めているように、2024年以降は、業務効率化・自動化領域において「全従業員をサポートしてくれる社内のエキスパートを作る」という事に本格的に取り組んでいくべきではないでしょうか。

当然ながら、これはゼロイチの話ではないので、取り組みを早く始めつつ継続的にレベルアップしていく必要があります。そして、社内情報とその理解がポイントになる以上、情報の要否の判断や評価も含め、外部ベンダーに丸投げするのが難しい領域でもあります。

「ChatGPTの利用率が1割程度に留まる」という意味を正しく捉えた上で、次の施策に繋げていく一助になれば幸いです。