DX in the Era of Generative AI and AI Agents生成AI・AIエージェント時代のDX

It's been over two years since ChatGPT captured the world's attention in 2023, and the term "Generative AI" has now become one of the defining keywords of our era.

As dizzying technological evolution continues daily, foundation models continue to be updated further with new models equipped with reasoning capabilities and open-source models. Many experts position 2025 as "the first year of AI agents," predicting that AI utilization will become even more critical in corporate DX strategies.

This time, under the title "DX Promotion in the Era of Generative AI and AI Agents," I would like to write about important points that each company should grasp in promoting their own AI utilization.

Introduction

When generative AI first gained attention, the focus was mainly on chat-type services that general users could easily use.

However, in just a few months afterward, cloud services aimed at corporate use, open-source models, as well as plugins, APIs, and open-source libraries appeared one after another.

The utilization of generative AI has gone through the PoC (proof of concept) stage in various industries and business formats, and is now transitioning to the phase of "how to make it take root internally" and "how to connect it with our company's unique strengths." Since the latter half of 2024, many experts have been emphasizing the importance of "AI agents," but on the other hand, there is still a large gap with the actual field in this dawn of generative AI, such as "We deployed ChatGPT but it's still not being used much internally" and "Even if you say AI agents, we don't specifically know where to start." Regarding generative AI-related news, with the US government's Stargate Project, Chinese companies' announcement of DeepSeek, and OpenAI's planned release of GPT-4.5 and GPT-5, there is no shortage of new topics daily.

On the other hand, information including things that are not very important has come to be widely disseminated, making it very difficult to understand what points should be fundamentally grasped in the generative AI era, and what points companies should really be focusing on in DX promotion.

In the current situation where technological evolution is fast and new information is being announced in rapid succession, information that merely summarizes the latest trends has almost no value. The shelf life of the latest information on generative AI is too short, as it becomes "that information is already old" a few weeks later.

This time, rather than content that relies on specific topics (branches and leaves) that change with the latest information, I would like to think about the "trunk" part of what needs to be fundamentally addressed in corporate DX promotion when considering the medium to long term span.

Why Isn't ChatGPT Used Much Even When Distributed Internally?

This has already been described in "The Real Reason Why ChatGPT Isn't Used Much Even When Distributed Internally", but since many people may not have read it, I'll explain just the key points.

ChatGPT captured the world's attention, but actually, how much is it being used within companies?

Thinking "Our company must not fall behind this AI trend," many companies, mainly large enterprises, started deploying ChatGPT for their internal employees from 2023.

They actively incorporated ChatGPT usage training and practical training, and while expecting significant improvements in employee work efficiency through the introduction of generative AI, post-implementation surveys showed usage rates were only around 10% internally, greatly falling short of the initial expectations of the implementers.

So why isn't ChatGPT, which attracted so much attention worldwide, being used that much internally?

While this phenomenon is often attributed to insufficient ChatGPT performance or lack of employee IT literacy, the fundamental reason is much simpler: "ChatGPT knows nothing about internal matters." As a basic premise, since ChatGPT is trained on past open data, it can solve general problems in programming, multilingual translation, mathematics and physics, etc. with high accuracy as is.

And since web search functionality has also been incorporated, ChatGPT has become able to basically solve problems that can be handled with past open data + web search.

Due to this nature, which job types actually use it frequently includes IT engineers, researchers, and web marketers.

Programs are a universal language worldwide and are included in the training data of foundation models, so for IT engineers, it becomes a great ally for programming code generation and bug fixes, and it can be said that work is no longer possible without ChatGPT.

For researchers too, the scope of business use is quite wide, including literature surveys, translation, and writing support, and for web marketers, there are many opportunities to use it in many situations such as persona analysis, brainstorming, copywriting creation, and web article writing support.

On the other hand, in the case of large companies, etc., how many people in such job types are there internally - they would be positioned as only a minority. Most job types, including the majority of front office sales people and back office people in general affairs, human resources, legal, and accounting, are conducting business centered on internal information, not open data.

For sales people, customer information and transaction information registered in CRM, etc. are essential for conducting business, and for back office people, internal business processes, regulations, organizational information, etc. are also essential as prerequisite information.

On the other hand, ChatGPT knows nothing about such internal information. In other words, for job types that make up the majority internally, there are not many tasks they can request support for from ChatGPT, which knows nothing about internal matters.

When thinking in anthropomorphic terms about what state it is to introduce ChatGPT as is internally, it's a state where an extremely excellent person has been hired, but this person is being made to work in an environment isolated from internal information.

Employees can ask this person anything or make any request via chat, but this person knows nothing about internal matters. In other words, for people doing work where internal information is essential, no matter how smart this person is, there aren't many things they can request.

So on the other hand, what would happen if this person could access internal information?

This person is extremely smart, can handle any language, and can even program. On top of that, they know internal matters better than anyone, and become an existence that responds to chats 24/365 without complaint.

In this case, they would probably become a superman-like existence that everyone relies on. In other words, from the perspective of internal use, the key is how much internal information ChatGPT knows.

This is not a problem that will be solved no matter how much ChatGPT's performance improves in the future, or how much employee IT literacy improves, so it's necessary to advance individual countermeasures internally.

Specifically, using methods called RAG and Fine-Tuning, it becomes a matter of creating a state where ChatGPT can access internal information, but since Fine-Tuning has difficult costs and evaluation for retraining, and information control, in many cases RAG will be central.

In advanced companies, there were many cases of developing internal information search using RAG from the latter half of 2023 to 2024, but internal information search is suitable as a first step initiative, and through this initiative, the importance of internal information management in the AI era and a sense of the characteristics of generative AI come to be cultivated among stakeholders.

For companies where specific initiatives regarding generative AI have not yet been advanced, without getting stuck in abstract discussions, as one guideline it would be good to first set a goal of minimizing to zero as much as possible the acts of "searching for information and asking people," which do not themselves generate added value, by connecting ChatGPT to internal information.

Even in the social trend where personnel mobility is increasingly high and hybrid work styles such as remote work are further expanding, a state where there is no internal information search function by generative AI and there are many things that can only be known by asking people will greatly reduce work efficiency and become a factor in declining corporate competitiveness.

Development of "Specialized AI Agents" That Will Be the Main Axis of DX Promotion from 2025 Onward

2023 was when ChatGPT was first distributed internally and deployment was promoted, 2024 was when implementation of internal information search using RAG, etc. was advanced, but 2025 is said to become the first year of AI agents.

Why AI agents become important is because this AI agent, especially specialized AI agents, will be a major factor determining corporate competitiveness going forward.

In a situation where foundation model updates are fast and various generative AI-related services are being released in rapid succession, while catching up with this information is also important, what companies should really focus on in DX promotion is the development of their own specialized AI agents. This is for the following two reasons.

  1. Both Foundation Models and Generative AI-Related Services Will Eventually Become Commoditized Currently, various information is updated daily, and it's already impossible to catch up with all the latest information, but foundation models themselves will eventually become commoditized, and generative AI-related services will also converge to a form where only truly good ones remain through natural selection.

Foundation models initially had large differences depending on each company's model, but that difference is already becoming smaller, and from the user's side, it's no longer possible to make judgments about whether each model is fundamentally good or bad.

Just as from the user's perspective there is now essentially no fundamental difference in the performance of home appliances, cars, and smartphones released by various companies, it will soon become a situation where there are generally no problems if you use any of the latest models from each company.

Also, when the shift from on-premise to cloud/SaaS occurred, a large number of products were introduced to the market, but natural selection has progressed since then, and now major players in each area are gradually becoming fixed.

When Office was first introduced, being able to use the latest tools Excel, Word, and PowerPoint was valued, but now everyone uses them as a matter of course, and similarly, when generative AI-related services become commoditized with major players fixed, using them will become a matter of course for everyone.

Both foundation models and generative AI-related services are, in the end, things that anyone can buy if they pay money for products on the market. Things that anyone can buy by paying money cannot become fundamental differentiation factors or competitiveness.

Of course, the latest information should be caught up with and the latest tools and products should be used, but since foundation models provided via API and SaaS tools can be used by anyone who pays money, it's fine to respond while watching market conditions.

In any case, catching up with the latest information on foundation models and tools and rushing to implement them even a step ahead of other companies does not lead to fundamental competitiveness strengthening.

  1. Both Foundation Models and Generative AI-Related Services Are General-Purpose Products Another important perspective is that foundation models and generative AI-related services are basically general-purpose.

From the product development side's standpoint, they develop centering on shared functions so that as many people as possible can use them.

As can be seen from the fact that many generative AI-related services promote meeting minutes creation, summarization, email draft creation, voice transcription, etc., when trying to increase users as much as possible, it inevitably becomes this kind of common area function provision.

Industry-specific tools are also emerging, but even if industry-specific, when viewed within the industry, they become general-purpose, so these also do not directly lead to competitiveness. Because if they are truly good products, each company in the industry will come to use them, and these will also become commoditized.

Thus, while products on the market will be commoditized and are basically for general-purpose use, catching up with and using these latest tools is essential, but this itself cannot be called a DX strategy.

The source of differentiation and competitiveness strengthening is, after all, that company's unique business model, business processes, knowledge, resources, etc. In other words, if you can build dedicated specialized AI agents that can maximize your company's strengths, you can greatly leverage your company's unique strengths, and they become strengths that other companies cannot follow.

For non-core operations and general-purpose areas, while using market products and SaaS tools well, how strong specialized AI agents dedicated to your company you can create in core areas will become one of the most important DX strategies (turning point) going forward.

Specialized AI agents are basically not subject to constraints like human resources and can be replicated as much as you want. Therefore, if you develop and refine your own high-performance specialized AI agents, depending on the industry, there is potential to become a state of one company dominating.

Management resources are often said to be people, things, and money, but in the future they will probably be people, things, money, and AI, and companies without AI will greatly lose competitiveness.

From 2025 onward, said to be the first year of AI agents, it will probably become a competition of how strong specialized AI agents each company can create, which can now be called one of the management resources.

What Companies Should Prepare in the Era of Generative AI and AI Agents

From here, as a more concrete discussion, I will explain three important points that companies need to prepare in the era of generative AI and AI agents.

1. Development of Specialized AI Agents

First, the most important thing is to advance the development of specialized AI agents that leverage your company's unique strengths, as described up to this point.

This needs to be considered separately from general-purpose areas and product utilization such as so-called ChatGPT utilization training or Microsoft Copilot utilization.

Rather than the perspective of efficiency improvement and improvement of general-purpose operations, it's important to formulate a concept from the perspective of "What AI agent best leverages our company's strengths?" and advance the development of specialized AI agents.

The difference in corporate competitiveness will be clear between companies that generally use ChatGPT, Microsoft Copilot, etc., and companies where, in addition to utilizing ChatGPT, Microsoft Copilot, etc., multiple specialized AI agents unique to their company are operating.

Below, I'll describe several points that become important in planning and developing specialized AI agents.

Point ① Aim for No-Prompt as Much as Possible

Since generative AI became the focus of attention, the term "prompt engineering" has gradually gained attention.

In order to properly draw out the functions of generative AI, short chat instructions alone are insufficient, and it's important to construct appropriate prompts so that instructions and purposes are clear.

This is the same story as when a superior gives instructions to a subordinate - with vague and ambiguous instructions, just as a subordinate doesn't know what to do, it's important to give instructions to AI as detailed and specific as possible.

Prompt engineering itself is of course important, and there's no doubt that it's better to know it as knowledge, but when developing AI agents, what's important is rather the opposite - how to make it so that users don't have to input prompts.

Even if you loudly proclaim "Prompt engineering is important" and actively implement training and education, in most cases it will not become widely established among employees. This is because while there is no objection to the importance of giving detailed and specific instructions, it's simply bothersome. As a basic premise, no one wants to type long chats.

In the first place, excellent human resources can, to put it bluntly, be rephrased as "people who take care of things appropriately." In other words, human resources who move on their own without giving detailed instructions, and who in some cases move on their own before instructions are given from here.

Human resources who cannot move without being given concrete and detailed instructions cannot be called high performers, but are rather positioned as low performers. Everyone seeks people who move on their own proactively without giving various instructions.

In other words, in constructing excellent AI agents, what becomes important is how much you can reduce the burden of instructions through user prompt input.

In some cases, if you can build an AI agent that can be used with no prompt input required, so-called no-prompt, there's nothing better than that.

Making it work with as short a chat as possible is one thing, but a configuration where options are presented and you only need to select a button would also have high usability.

After all, when presented with a chat field, everyone hesitates about what kind of content to input.

Even with the premise that prompt engineering is important, if you build an AI agent where users have to input many prompts, probably not much usage will become established.

What should be aimed for is rather the opposite - to build specialized AI agents that embed your company's business processes, know-how, unique data, etc., that users can easily use without typing difficult chats, and that raise users to the level of best practices.

High freedom of input also means that it can become better or worse depending on how the user uses it, so this is rather an area that general-purpose AI will handle.

The development of specialized AI agents has a major premise that you are specializing for your company's unique purpose, so rather than having high freedom, having a design where appropriate output is always obtained with minimal input from the user is closer to the ideal form as a specialized AI agent.

In specialized AI agents, the prompt already contains your company's business processes, know-how, unique data, etc., so the prompt users need to input should be minimal.

Point ② Be Conscious of Human-in-the-Loop Design

When it comes to AI agents, the image of "autonomous type" is strong for many people. Autonomous AI agents are AI that autonomously execute multiple processes to solve user requests and complete tasks.

This autonomous type is more evolved than chat-based generative AI in that it can get one step closer to the final output from input, and certainly, this is one of the important features of AI agents.

However, for the time being, there are still issues with the reliability of generative AI and AI agents, and there is still considerable distance to complete end-to-end autonomous execution in real business.

The important thing in developing specialized AI agents is to think about "how much to rely on AI," and while having an understanding of the latest technologies and capabilities of AI agents, it's important to decide the scope while keeping a firm grasp on "whether it can withstand use in business." It's not necessary to be overly particular about fully autonomous type here, and it becomes effective to have Human-in-the-loop type, that is, to build in appropriate human intervention as part of the design.

In other words, since AI, which still has issues with reliability and is in a developmental stage, is difficult to trust completely, include perspectives of human confirmation within a series of processes as part of the design.

This is the same story even with humans - even if you hire the most excellent human resources, you would be anxious if they just said "I finished everything" on the first day regarding the work you entrusted.

The movement expected here, probably the most excellent human resources would be those who move without giving various instructions, but who properly report, communicate, and consult.

In other words, even if autonomous type, not fully autonomous type, but by appropriately designing reporting, communicating, and consulting at necessary timings, users can use AI with peace of mind.

Including myself as an engineer, I think everyone has a desire to make it as autonomous as possible from the technical interest and impact, but in the end, if it's not used by people in the field, it's meaningless. Because if it's just technically interesting, the added value is zero.

Many people have a strong image of "AI agent = autonomous type," but without being overly caught up in this image, while talking with the people who will be actual users, it becomes important to find a good landing point including the design of the scope to entrust to AI and the scope for human intervention.

2. Maintenance of APIs and Data Infrastructure

I've described the importance of specialized AI agents up to this point, but then, if you decide "Let's develop our own specialized AI agents!", can you just go ahead and advance AI agent development?

Actually, what becomes equally important as your company's AI concept formulation and planning that leverages strengths is "Is an environment where AI can move freely already in place internally?"

The construction of specialized AI agents naturally requires access to internal information, but whether AI agents can access internal information, in other words, means whether API integration with systems is possible, and whether data is maintained in the data infrastructure.

To put it bluntly in technical terms, it means whether AI can interact with systems via API, and whether necessary data can be retrieved from the data infrastructure with SQL.

Unlike humans, AI agents don't operate system screens (GUI), so when retrieving data from systems or registering data in systems, they do it via API, and when accessing company data, etc., they retrieve data by issuing SQL to the data infrastructure.

Therefore, in a situation where there is still a lot of paper internally, only on-premise systems that can only be operated via GUI, and data is scattered everywhere, AI cannot access data in the first place, so development of specialized AI agents cannot be advanced.

Also, no matter how strong foundation models emerge in the future, what AI can do will be quite limited.

This is the same as how no matter how fast a car is developed, it cannot demonstrate its functions on unpaved roads or roads that cannot be traveled on in the first place.

Some people may hope "We haven't actively advanced digitalization until now, but if we work hard on AI from now, can't we make a comeback all at once?", but there is no leapfrogging here, and it becomes a state where companies that have steadily advanced DX until now can start earliest and also increase that speed.

While DX promotion up to now appears to have been game-changed by AI, it should rather be understood as a positioning where companies that have properly done DX until now (companies that have steadily prepared their footwork) can further accelerate.

However, some may think "In terms of order, shouldn't preparing APIs and data infrastructure come first, and AI agent development come later?", but there's a reason I wrote about the importance of specialized AI agent development first.

That is because "DX should be advanced output-first." This is because, in cases where there is distance between business departments and IT departments, which is typical, there are often cases where the IT department first prepared the data infrastructure, but what specifically to use it for is not decided (actually nobody is using it).

This is a typical input-first approach, and is the same as studying something thinking you might use it someday, but never getting an opportunity to use it.

Simply accumulating data doesn't mean you can make some kind of good AI, and actually, unless what kind of AI is needed is specifically decided, what data is needed cannot be defined.

Many people say "AI needs data so we have to prepare data anyway" or "We can't implement AI because our data isn't prepared," but actually it's the opposite - "We want to make this kind of AI, so we need this kind of data" is the correct order of examination.

In other words, when you can concretely form an image of the specialized AI agents you want to make at your company, what data is needed to make this AI becomes concretely decided.

Regarding data granularity as well, whether monthly is fine, whether daily is needed, whether batch processing is fine, or whether access to the latest information in real-time is needed, etc., cannot be concretely decided unless the actual output functionality is decided.

Maintenance of APIs and data infrastructure is of course important, but if you just say "Let's maintain APIs and data infrastructure," the scope cannot be decided with this itself, so it's better to first define the output of specialized AI agents, and then prepare the necessary APIs and data infrastructure by working backward.

With input-first thinking, data prepared thinking "we might use this too" often ends up not being used, so advancing output-first allows you to run the shortest distance without waste.

3. Preparation of Integrated UI

This is actually not limited to AI, but what needs to be seriously examined in the coming AI era is this examination of integrated UI.

This is because while general-purpose and specialized AI agents, etc. are expected to further increase going forward, already at this point systems and data continue to increase, and from employees' perspective it has become a state of "not really knowing where what is." Particularly in large enterprises, cases where links to systems that can be used are listed on so-called internal portal sites are common, but probably no one fully understands all internal systems and functions.

Conversations among employees like "I didn't know there was such a system..." "I can get this data from here... I didn't know..." are everyday situations, and monitoring whether systems are properly recognized and used in the first place has become an important issue for DX and IT departments, equal to or more than the purpose of improving system convenience.

And since data and systems that can be utilized will continue to increase going forward, it can be said that they have completely exceeded the level that each individual can recognize.

In the first place, the number of systems that can be properly recognized and used at the individual level is probably around 5. Up to about 10 is still manageable, but when it comes to 20, 30, or more systems, it exceeds the limits of recognition and will become a state with many systems that are simply not known.

Already in such a situation, even if new AI functions are added to each system or individual specialized AI agents are developed, it can be easily imagined that the walls of recognition and diffusion cannot be overcome in the first place.

No matter how convenient systems or AI are built, if their existence and convenience itself are not known, naturally there is no point in building them.

On the other hand, if each system person in charge or AI construction person in charge independently focuses on internal recognition and diffusion, even though within the same company, it becomes a structure where each person in charge competes for the limited recognition resources of employees.

When this happens, only things from departments with loud voices or departments skilled at internal marketing stand out.

Ideally, DX and IT departments should devote efforts to system and AI concept formulation and planning, development and testing, usability improvement and quality improvement, but the man-hours that must be allocated to internal marketing for recognition and diffusion continue to swell.

In an era where systems and data continue to increase and AI agents are also newly built, "how to deal with employees' recognition problem" becomes an unavoidable problem.

One effective solution here is to create an integrated UI with AI as a concierge, making it a touchpoint with each system and specialized AI agent groups.

Each system and specialized AI agent are naturally in an optimal UI configuration to achieve their respective purposes, so it's not realistic to integrate these themselves into one.

In such a fast-changing era, a monolithic architecture will eventually collapse, so it's necessary to maintain a state like microservices.

Without touching existing systems, etc., preparing an integrated UI that users access first, and from here guiding them to necessary systems and AI agents according to their purposes becomes one effective form.

To put it simply, this means "creating a state where you can always ask someone who is fully familiar with all systems and AI agents that can be used internally." The advantage of this state is for both the employee side who are users and the DX/IT department side that deploys systems and AI agents.

First, for the employee side, as various new systems and AI agents are deployed going forward, it becomes a state where they just need to access here first, so they no longer get lost in utilizing systems and data, and it becomes very easy.

Including internal systems and SaaS, aren't there many employees who are fed up with the internal IT environment, with many systems in use, chatbots proliferating, systems migrating to new ones before they know it, etc.?On the other hand, there are also many voices saying "If there was such a system, I wanted to know earlier..."

In other words, having a concierge-like AI that teaches "Ah, if you want to do that, use this system/AI, and do it like this" in the shortest way is very welcome for the employee side.

Especially as personnel mobility increases, it would be a strong ally for new employees and people who came to new departments through personnel transfers, wouldn't it?

And not only for the user side, but the advantages are large for the DX/IT department side as well, the reason being that they can concentrate on system and AI development where they should originally focus their efforts.

What does this mean? As explained earlier, since systems, apps, and AI already exceed the level that each individual can recognize, DX and IT departments are not in a state where they can concentrate only on development, but activities like internal marketing have become necessary.

In other words, especially in the case of new BI and AI apps, it doesn't end simply by developing and releasing, but the weight of activities to make people know and use, such as holding explanation sessions after release, study sessions, and steady diffusion activities, is getting larger and larger.

I myself was confident in the team that we made something quite good, but after release the utilization rate didn't rise as expected, and thinking "Maybe there are issues in UX or functionality...", when I took individual surveys, I was surprised that there were many opinions saying "If there was something this good, I wanted to be told earlier." I thought I had properly done explanation sessions gathering stakeholders and notifications, but still, in the internal IT becoming complex, the hurdle of making people know is getting bigger and bigger.

This trend will become even stronger going forward, so a change in thinking is necessary. The point here is that while there is a limit to the number of systems and apps each individual can recognize, AI has no such limit.

In other words, giving up on having each employee recognize all systems and use them properly, and making AI recognize everything and recommend what's necessary, thereby effectively eliminating the need for internal marketing.

For the employee side, they first access the integrated UI, tell the AI concierge what they want to do, and it guides them to the optimal system or AI agent, and for the DX/IT department side, it becomes a form where they just need to register information about new systems and AI agents, etc. in the information that this integrated UI's AI concierge references.

In this way, the integrated UI plays a role like a lubricant for communication between employees and the DX/IT department, so for the employee side they no longer get lost in utilizing internal IT, and for the DX/IT department they can concentrate on developing systems and AI.

That said, you might think "Isn't developing this integrated UI difficult?", but rather here it's better to keep high independence from each system and AI agent, so you can start from a form where you first create a list of each system and AI agent list information, and guide URLs along with introducing the functions of necessary systems and AI agents in response to requests from users.

If you start bringing the functions of each system and AI agent to the integrated UI side, it will expand as much as possible and become something heavy and large before you know it, so it's better to position it as covering a thin layer as the role of a hub for guiding each system and AI agent.

It's better to cut it off in a form where authentication, access control, detailed usage manuals, etc. are also once transferred to URLs and then left to each system and AI agent. In any case, it's important to maintain a loosely coupled state with each system and AI agent.

Without having individual specialized functions and maintaining independence, since it becomes a touchpoint with all employees, it becomes important to focus on improving UX, including responsiveness, stability, and screen design.

On the other hand, it's also fine to have a function to widely search internal information. This, without making dedicated elaborate implementations, becomes an internal information search function emphasizing recall rather than precision.

Regardless of accuracy, for the purpose of reaching internal information broadly for now, when you think "I want to do something like this, is there any related material?", it returns information that seems highly relevant across the board, so to speak, like a strengthened version of full-text search within the company by AI.

The most common pitfall in building internal information search apps with RAG is trying too hard to return information pinpoint, and not being able to release because that precision doesn't come out.

When trying to increase precision in a specific area, rather the precision in other areas decreases, and it becomes a state where if you stand here, you can't stand there.

Also, there are many cases where precision came out with current documents, but when documents are updated, precision suddenly drops.

For the employee side, even just widely picking up information that seems related is sufficiently appreciated, so it's good to include an internal information search function emphasizing recall, giving up on precision to some extent, as a function of this integrated UI.

Of course, if you want to search information with high precision (increase precision) for a specific area or purpose, you can develop and release it as a specialized AI agent.

As an image of this integrated UI, Google's announced AgentSpace is a reference. As it becomes a touchpoint with internal apps and AI, and NotebookLM also makes it easy to search internal information, etc. Microsoft's Copilot also has a function to easily access built AI agents, and will be in the same positioning going forward.

Then, you might think "Why not just use these as is?", but there's one caveat.

Since the integrated UI becomes a touchpoint with all systems and AI agents, if you're not careful you can easily get locked in.

As I also emphasized the importance of maintaining a loosely coupled state earlier, if this integrated UI is built with external tools and the degree of integration with internal systems is increased, it will probably become difficult to switch in the middle.

Before you know it, including surrounding tools, that vendor's related products will increase even if unintended. Precisely because it becomes a touchpoint with all systems and AI agents, it's important to increase its independence so as not to get locked in.

Also, since the optimal form of the integrated UI naturally differs depending on that company's business model and employee/organizational structure, it's desirable to maintain a state where the UI can be freely customized.

Vendor tools, for better or worse, have UIs almost fixed so that anyone can use them easily, so if your company's unique custom requirements come up after release, it becomes a state where it's rather more expensive through individual SI.

Also given that recently there are many products with per-employee billing, considering running costs and the risk of lock-in, regarding the integrated UI, it's better to build something unique to your company so as not to depend too much on specific vendors.

I've written at length up to here, but in DX promotion in the era of generative AI and AI agents, "development of specialized AI agents" that maximize your company's strengths, "maintenance of APIs and data infrastructure" that supports that development, and "construction of integrated UI" to not let employees get lost become important.

Summary

How was it?

For better or worse, AI has become widely noted in the world, and information that is not very important about AI has also come to be widely disseminated.

Many people may be confused by the amount of new information daily, including both important and unimportant things, but the points that should be fundamentally grasped in corporate initiatives are not that many.

I would be happy if this helps to thicken the trunk part of DX promotion without being swayed by transient information.

2023年にChatGPTが世界の注目を一挙に集めてから早くも2年以上が経ち、生成AI(Generative AI)という言葉が今や時代を象徴するキーワードの一つとなりました。

目まぐるしいテクノロジーの進化が日々続く中、推論機能を備えた新しいモデルやオープンソースのモデルなど、基盤モデルの更なるアップデートが続いています。多くの専門家は、2025年を「AIエージェント元年」と位置づけ、企業のDX戦略においてAI活用がより一層重要になることを予見しています。

今回は、「生成AI・AIエージェント時代におけるDX推進」と題して、各企業が自社のAI活用を促進していく上で押さえておくべき重要なポイントについて書いていきたいと思います。

はじめに

生成AIが一気に注目を集めた当初は、主に一般ユーザーが気軽に使えるチャット型のサービスがクローズアップされていました。

しかし、その後わずか数か月間で、企業での利活用を目的としたクラウドサービスやオープンソースモデル、さらにはプラグイン・API、オープンソースのライブラリなども次々と登場しました。

生成AIの利活用は、様々な業種・業態でのPoC(試験実施)の段階を経て、今まさに「どうやって社内に根付かせるか」や「自社独自の強みとどう結びつけるか」というフェーズへと移行しつつあります。

2024年の後半頃から、多くの専門家が「AIエージェント」の重要性について強調しているものの、他方で「ChatGPTを導入・展開したのに社内ではまだあまり使われていないレベル」「AIエージェントと言われても、具体的にどこから手をつければ良いかわからない」というように、生成AIの黎明期である今、まだまだ実際の現場とのギャップは大きくあります。

米政府によるStargate Project、中国企業によるDeepSeekの発表、そしてOpenAIによるGPT-4.5, GPT-5のリリース予定など、生成AI関連のニュースについては、新たな話題に毎日事欠かない状況になっています。

一方で、あまり重要でない情報も含めて広く流布されるようになり、生成AI時代において、本質的に捉えておくべきポイントは何なのか、そして、企業のDX推進で今本当に力を入れておくべきポイントは何なのかという事が非常にわかりにくくなっています。

テクノロジーの進化が早く、新たな情報が矢継ぎ早に発表されている今の状況において、最新の動向をまとめただけの情報にはほとんど価値はありません。生成AIに関する最新情報の賞味期限はあまりにも短く、数週間後には「もうその情報古いよね」となっているためです。

今回は、最新情報によって移り変わる特定のトピック(枝葉)に依拠した内容ではなく、中長期のスパンで考えて、企業のDX推進で本質的に何に取り組む必要があるのかという”幹”の部分について考えていきたいと思います。

なぜChatGPTを社内に配ってもあまり使われないのか?

こちらは既に「ChatGPTを社内に配ってもあまり使われない本当の理由」で記載しましたが、読んでいない方も多いと思いますのでポイントだけ絞って解説しておきます。

世界の注目を一挙に集めたChatGPTでしたが、実際の所、企業内ではどのくらい使われているのでしょうか?

「自社もこのAIの流れに乗り遅れまい」と大手企業を中心に2023 年から多くの企業が社内の従業員向けにChatGPTの展開を始めました。

ChatGPTの利用教育や実践研修なども積極的に取り入れ、生成AIの導入により従業員の業務効率の大幅な向上を期待していたものの、導入後のアンケートでは導入者達の当初の期待を大きく下回り、利用率は社内の1割程度というデータが相次いで出ています。

では、なぜこれほど世界で注目を集めたChatGPTがそれほど社内で使われていないのでしょうか?

ChatGPTの性能不足や従業員のITリテラシー不足に帰結される事も多いこの現象ですが、根本的な理由はもっとシンプルで、「ChatGPTが社内の事を何も知らない」からです。

そもそもの前提としてChatGPTは過去のオープンデータを元に学習されているため、プログラミングや多言語翻訳、数学・物理等の一般的な問題はそのまま高い精度で解く事ができます。

そして、Web検索機能も搭載されるようになったため、ChatGPTは過去のオープンデータ+Web検索で対応できる問題は基本的に解けるようになりました。

この性質から、実際にどの職種の人がよく利用しているのかというと、ITエンジニア・研究者・Webマーケターという職種の方達が挙げられます。

プログラムは世界共通言語であり、基盤モデルの学習データにも含まれているため、ITエンジニアにとってはプログラミングのコード生成やバグ修正などで大きな味方になり、もはやChatGPTがなければ仕事にならないと言っていい状況になっています。

研究者にとっても、論文のサーベイや翻訳、執筆支援など、業務で活用できる範囲がかなり広く、Webマーケターの場合は、ペルソナ分析や壁打ち、コピーライティングの作成やWeb記事の執筆サポートなど、多くの場面で利用する機会があります。

一方で、大手企業などの場合、社内でこのような職種の人がどの程度いるかというと、あくまで少数派という位置づけになるでしょう。大部分を占める営業系のフロントオフィスの方や、総務・人事・法務・経理などのバックオフィスの方達も含め、ほとんどの職種の方はオープンデータではなく、社内情報を中心に業務を進めています。

営業系の方であれば、業務を進める上でCRM等に登録している顧客情報や取引情報は必須な上に、バックオフィスの方の場合は、社内の業務プロセスや規程群、組織情報等も前提情報として必須になります。

一方で、ChatGPTはこういった社内情報については何も知りません。つまり、社内の多くを占める職種の方達にとっては、社内の事を何も知らないChatGPTにサポートを依頼できる業務はあまりないという事です。

ChatGPTをそのまま社内に導入するという事がどういう状態なのかを擬人化して考えると、とてつもなく優秀な人材を採用したものの、この人材を社内情報と隔絶した環境で仕事をさせているという状態になります。

従業員はチャットでこの人材に何でも質問や依頼ができるものの、この人材は社内の事は何も知りません。つまり、社内情報が必須の業務をしている人達にとっては、どれだけこの人材が賢くても、あまり依頼できる事はないという事です。

では一方で、この人材が社内情報にアクセスできるようになった場合はどうなるでしょうか?

この人材はとてつもなく賢い上に、あらゆる言語を操り、プログラミングすらできます。その上で、社内の事を誰よりも知っていて、24/365で文句を言わずいつでもチャットを返してくれる存在となります。

こうなると、おそらく誰からも頼られるスーパーマンのような存在になるでしょう。つまり、社内利用の観点では、ChatGPTが社内情報をどれだけ知っているかが鍵になるという事です。

これはChatGPTの性能がどれだけ今後上がっても、また従業員のITリテラシーがどれだけ上がっても解決する問題ではないため、社内での個別の対策を進めていく必要があります。

具体的にはRAGやFine-Tuningという手法を使って、ChatGPTが社内情報にアクセスできる状態を作っていくという話になりますが、Fine-Tuningは再学習のコストや評価、情報統制も難しいため、多くのケースではRAGが中心になるでしょう。

先進企業では、2023年後半から2024年にかけて、RAGを活用した社内情報検索等の開発を進めるケースが多くありましたが、社内情報検索はまず一丁目一番地としての取り組みに向いており、この取り組みによって、AI時代における社内情報管理の重要性や生成AIの特性に関する肌感覚が関係者内に醸成されるようになります。

生成AIに関する具体的な取り組みがまだ進められていないという企業は、抽象的な議論に終始する事なく、まずはChatGPTを社内情報に繋ぐ事で、「情報を探す・人に聞く」という、それ自体は付加価値を生まない行為を極力ゼロにしていくという目標を立てる事が一つの指針として良いのではないでしょうか。

人材の流動性が益々高くなり、リモート勤務などのハイブリッドな働き方が更に拡大していく社会の潮流においても、生成AIによる社内情報検索機能がなく、人に聞かないとわからない事が多いという状態は業務効率を大きく下げる上に、企業競争力を低下させる要因となるでしょう。

2025年以降のDX推進の主軸となる「特化型AIエージェント」の開発

まずは社内にChatGPTを配って導入を進めたのが2023年、RAG等を活用した社内情報検索等の実装を進めたのが2024年でしたが、2025年はAIエージェント元年になると言われています。

なぜ、AIエージェントが重要になるのかというと、今後企業の競争力を決める大きな要因になるのがこのAIエージェント、特に特化型AIエージェントだからです。

基盤モデルのアップデートが速く、様々な生成AI関連サービスが矢継ぎ早にリリースされている状況の中、これらの情報にキャッチアップする事も重要ではあるものの、企業がDX推進で本当に力を入れるべきなのは自社独自の特化型AIエージェントの開発になります。それは以下2つの理由からです。

1. 基盤モデルも生成AI関連サービスもいずれはコモディティ化していく

現在は様々な情報が日々アップデートされ、もはや全ての最新情報にキャッチアップするのは不可能な状況ですが、基盤モデル自体もいずれコモディティ化していき、生成AI関連サービスも自然淘汰を経て本当に良いものだけが残る形に収斂していきます。

基盤モデルも当初は各社のモデルによって大きな差がありましたが、既にその差は小さくなりつつあり、利用者側としては、各モデルが本質的に良い・悪いという判断はもはやつけられなくなっています。

各社が出す家電製品や自動車、スマホの性能自体に利用者視点では本質的な差が今やなくなってきたように、各社の最新のモデルのいずれかを使っておけば概ね問題はないという状況に早晩なるでしょう。

また、オンプレからクラウド・SaaSの流れに切り替わった時期は大量のプロダクトが市場に投入されましたが、そこから自然淘汰が進み、今となっては各領域で主力プレイヤーがある程度固まりつつあります。

Officeが導入された当初は、最新のツールであるExcelやWord, PowerPointが使いこなせる事が重宝されましたが、今となっては誰もが当たり前に使っているように、生成AI関連サービスも主力プレイヤーが固まってコモディティ化すると、誰もが使う事が当たり前の状態になっていきます。

基盤モデルにしても生成AI関連サービスにしても、結局のところは、市場で出回っているものはお金を出せば誰もが買えてしまうという事です。お金を出せば誰でも買えるものは本質的な差別化要素・競争力にはなり得ません。

もちろん最新情報をキャッチアップして、最新のツールや製品を使うようにしておくべきですが、API提供されている基盤モデルやSaaSツールはお金を出せば誰でも使えるので、市況を見ながら対応しておけば良いでしょう。

とにかく基盤モデルやツールの最新情報にキャッチアップして、一歩でも他社より早く導入する事に奔走しても本質的な競争力強化にはなりません。

2. 基盤モデルも生成AI関連サービスもあくまで汎用型製品

もう一つ重要な視点として、基盤モデルや生成AI関連サービスは基本的に汎用型だという事です。

製品開発側の立場としては、なるべく多くの人達に使ってもらえるように共通化した機能を中心に開発していきます。

生成AI関連サービスの多くが、議事録作成や要約、メールのドラフト作成や音声文字起こし等を推している事からもわかるように、なるべく利用者を増やそうとするとこのような共通領域の機能提供にどうしてもなります。

業界特化型のツール等も出てきていますが、業界特化とはいえ、業界内で見ると汎用になるので、こちらも競争力に直結するわけではありません。本当に良い製品なら、業界内各社が使うようになり、こちらもコモディティ化していくからです。

このように、あくまで市場に出回っている製品はコモディティ化する上に、基本的に汎用用途のため、これらの最新ツールにキャッチアップして利用していく事は必須ではあるものの、これ自体はDX戦略とは言えません。

差別化・競争力強化の源泉となるのは、あくまでその企業独自のビジネスモデルや業務プロセス、ナレッジ、リソース等になります。つまり、自社の強みを最大限活かす事のできる専用の特化型AIエージェントを構築できれば、その企業独自の強みを大きくレバレッジする事ができ、他社には追従できない強みとなります。

ノンコア業務や汎用領域については、市場製品やSaaS系ツールを上手く使いつつも、コア領域においてどれだけ強い自社専用の特化型AIエージェントを作れるかが今後最も重要なDX戦略の一つ(勝負の分かれ目)になっていくでしょう。

特化型AIエージェントは、基本的に人的リソースのような制約を受けず、いくらでも複製できます。そのため、自社独自の高性能な特化型AIエージェントを開発し洗練させていけば、業界によっては一社独り勝ちのような状態になる可能性を秘めています。

経営資源で重要になるのは、ヒト・モノ・カネとよく言われますが、今後はおそらく、ヒト・モノ・カネ・AIとなり、AIがない企業は大きく競争力を大きく落とす事になるでしょう。

AIエージェント元年と言われる2025年以降は、もはや経営資源の一つと言える、どれだけ強い特化型AIエージェントを各社作れるかという競争になっていくのではないでしょうか。

生成AI・AIエージェント時代に企業が準備しておくべき事

ここからはもう少し具体的な話として、生成AI・AIエージェント時代に企業が準備しておく必要がある、重要な3つのポイントについて解説していきます。

1. 特化型AIエージェントの開発

まず、最も重要な事は、ここまで述べてきたように自社独自の強みを活かす特化型AIエージェントの開発を進める事です。

ここはいわゆるChatGPT活用研修やMicrosoft Copilot活用のような汎用領域や製品活用とは分けて考える必要があります。

汎用的な業務の効率化や改善という視点ではなく、「自社の強みを最も活かすAIエージェントは何か?」という視点で構想を策定し、特化型AIエージェントの開発を進めていく事が重要になります。

ChatGPTやMicrosoft Copilot等は一般的に利用しているという会社と、ChatGPTやMicrosoft Copilot等の活用に加え、自社独自の特化型AIエージェントが複数稼働しているという会社では、企業としての競争力の差は明らかでしょう。

以下、特化型AIエージェントの企画・開発において重要となるポイントをいくつか記載します。

ポイント①極力ノープロンプトを目指す

生成AIが注目されるようになってから、「プロンプトエンジニアリング」という言葉も次第に注目されるようになりました。

生成AIの機能を正しく引き出すためには、短いチャットの指示だけでは不十分で、指示と目的が明確になるよう、適切なプロンプトを組み立てる事が重要だということです。

これは上司が部下に指示を出す際の話と同じで、ざっくりとした曖昧な指示では、部下がどうすればいいのかわからないのと同様に、AIに対してもなるべく詳細かつ具体的に指示する事が重要だという事です。

プロンプトエンジニアリング自体はもちろん重要で、知識として知っておいたほうが良いのは間違いないのですが、AIエージェントを開発する際に重要なのはむしろこの逆で、いかにユーザーがプロンプトを入力せずに済むようにするかです。

「プロンプトエンジニアリングが重要」と声高に唱え、研修・教育等を積極的に実施しても、ほとんどの場合、従業員に広く定着する事はありません。なぜなら、詳細かつ具体的に指示する事自体の重要性には誰も異論はないものの、単純にそれが面倒だからです。大前提として、長々としたチャットを打ちたいという人は誰もいません。

そもそも、優秀な人材というのは、端的に言ってしまえば「よしなにやってくれる人」と言い換える事もできます。つまり、あれこれ細かい指示を出さずとも自分から動いてくれて、場合によってはこちらから指示を出す前に自分から動いてくれる人材という事です。

具体的かつ詳細に指示を出さないと動けない人材はハイパフォーマーとは言えず、むしろローパフォーマーの位置づけになります。あれこれ指示を出さなくても能動的に自分から動いてくれる人を誰もが求めています。

つまり、優秀なAIエージェントの構築においては、いかにユーザーのプロンプト入力による指示の負担を減らせるかという事が重要になってきます。

場合によっては、プロンプト入力が不要な状態、いわゆるノープロンプトで使えるAIエージェントを構築できればそれに越した事はないという事です。

極力短いチャットだけで済むようにするのも一つですが、選択肢が提示されていて、ボタンを選択するだけで良いというような構成もユーザビリティが高いと言えるでしょう。

やはり、チャット欄を提示されると、どのような内容を入力しければならないのかと誰しも迷ってしまいます。

プロンプトエンジニアリングが重要という事を前提に、ユーザーが多くのプロンプトを打たなくてはいけないAIエージェントを構築してもおそらくあまり利用が定着する事はありません。

目指すべきはむしろ逆で、自社の業務プロセスやノウハウ、独自データなどを埋め込んだAIエージェントを構築し、難しいチャットを打たなくてもユーザーが容易に利用でき、その上でユーザーをベストプラクティスのレベルにまで引き上げるような特化型AIエージェントを作る事が重要になります。

インプットの自由度が高いという事は、利用者の使い方によって良くも悪くもなるという事でもあるため、こちらはどちらかというと汎用型のAIが担う領域となります。

特化型AIエージェントの重要性はあくまで「特化」であるため、インプットの自由度をむしろ下げ、自社における最適化を進めていく事が重要になります。

ポイント②自律型にこだわらずAIに任せる範囲を見極める

ここからは構築サイドの話になりますが、AIエージェントの構築の際に、あまり自律型にこだわりすぎないほうが良いという話になります。

というのも、よく言われるAIエージェントのストーリーとして「これまではチャットベースでの応答型のAIでしたが、今後注目されるAIエージェントは自ら考えて行動する自律型です」というものがありますが、コンセプトとしてのわかりやすさも相まって、少しこの「自律」という点が強調されすぎているからです。

完全自律型の問題点は、全てを考えてしまうため安定性が低い上に単純に遅いという事です。OpenAIのOperatorやAnthropicのComputer Useを見た事がある方はわかるかと思いますが、画面の全ての要素を認識して必要な箇所を抽出し、想定できる様々な選択肢から次の行動を考えるという事を毎回やるので、遅い上に実行毎に結果も異なってしまいます。

デモとしては面白いのですが、企業の実業務で安心して使えるかというとなかなか難しいでしょう。

特化型AIエージェントの構築に重要な事として、全ての業務にはそもそも型があるという事です。

つまり、全てをAIに考えさせる必要はなく、考えるべきポイントはAIに任せ、考える必要のないポイントではAIは使わないという事が重要になります。

例えば、特定の業務領域における情報検索に特化したAIエージェントを構築する場合は、あまねくサイトをスコープにしても取得した情報の真偽の判断がつかないため、結果の取り扱いに困るという点があるでしょう。その上、毎回大幅に結果が変わるため、AIとしての信頼性も低くなります。

こういった場合は、信頼できるサイトや、有償かつ優良な情報サイトを一覧にした上で、「この中から検索して」という形で、スコープを絞ってあげるほうが、速度面や信頼性も含め大きく改善されるでしょう。

また、特定のシステムから情報を取得するような場合も、APIのドキュメント一覧だけを渡してもそれなりにAIエージェントは動くとは思いますが、どのAPIを使うべきかを毎回考える上に、入出力の結果のチェックも実施しますが、それでも時々エラーが出てしまいます。

このような場合はそもそもAIに任せるのではなく、専用のプログラムを実装してしまって、その結果をAIに使わせるという形が良いでしょう。この形のほうがそもそも圧倒的に処理が速い上に、エラーハンドリングは既に組み込んであるため、信頼性が向上します。

つまり、特化型AIエージェントの設計において重要な事は、「どこをAIに任せて、どこをAIに任せないか」という点になります。AIで解く必要のない問題をあえてAIで解く必要はありません。

あらゆる業務には型があるので、おそらく、ベストプラクティスを埋め込んだ特化型AIエージェントは、自然とワークフロー形式になる事が多いでしょう。

最も有名なAIエージェント構築のオープンソースライブラリの1つであるLangGraphも、手放しでAIに任せるという訳ではなく、ワークフロー化やモジュール化を強く意識した設計思想になっています。

処理のステップをほぼワークフロー形式で指示し、各ステップ内でAIを使うというようなケースもあれば、メイン処理はステップ含め検討させるものの、前処理と後処理は固定するというようなケースもあると思います。

少なくとも特化型AIエージェントにおいて、完全な自律型で設計する領域はそれほど広くはなりません。

AIエージェントの「自律」という言葉に引っ張られすぎると、AIの処理スコープが必要以上に大きくなりすぎてしまい、リリースに向けた着地や評価が難しいという事態に陥ってしまう可能性があります。

AIエージェントにおいて重要な事は、あくまでユーザーから見たときに、あれこれ指示を出さずに自律的に対応してくれるという事なので、特化型AIエージェントの構築(バックエンド)においては、必要以上に自律にこだわらず、AIの使い所を正しく見極めていく事が、AIエージェントの性能を上げる鍵になります。

ポイント③Human-in-the-loopを上手くいれる

こちらも過度に自律型にこだわりすぎないための重要なポイントになります。

というのも、まだまだAIエージェントの利用が一般的ではない現在のフェーズにおいて、「このAIエージェントに頼めば、自分で考えて必要なタスクを最後までこなしてくれます」と言われても、利用者側としては「本当に全部任せて大丈夫かな。。」と不安になるためです。

いわゆる参照情報の提供のようなレベルまでであれば業務影響はないので良いのですが、金銭のやりとりが発生する場合や顧客との接点での利用、またシステムへの情報登録なども実施する場合は、まだまだ手放しで任せるのは不安という方も多いでしょう。

この状態で、自律型を謳い文句にしたAIエージェントをいくら展開しようとしても、なかなか現場としては受け入れづらいという事になるでしょう。

ここは必要以上に完全自律型にこだわらず、Human-in-the-loop型、つまり人間の適切な介入も設計として入れこんでおくという事が有効になります。

つまり、まだまだ信頼性に課題があり、発展途上の段階のAIを全て信じる事は難しいので、一連の処理の中で、人間による確認の観点も含めて設計しておくという事です。

これは人間でも同じ話で、仮にどれだけ優秀な人材を採用したとしても、初日から任せた仕事に対して「全て終わらせておきました」とだけ言われると不安になるのと同じ事です。

ここで期待される動き、おそらく最も優秀な人材というのは、あれこれ指示を出さずとも動いてくれるものの、報連相はしっかりしてくれる人材という事ではないでしょうか。

つまり、自律型といっても完全自律型ではなく、必要なタイミングでの報連相を適切に設計しておく事によって、ユーザーが安心してAIを利用できるようになります。

私も含め技術者としては、技術的な面白さとインパクトから、なるべく自律型にしたいという想いが誰しもあると思いますが、結局の所、現場の方々に使われなければ意味はありません。技術的に面白いというだけでは付加価値はゼロだからです。

「AIエージェント=自律型」のイメージが強い方も多いと思いますが、このイメージに過度に捉われすぎる事なく、実際の利用者になる方々と会話しながら、AIに任せる範囲と人間の介入を行う範囲の設計も含め、着地点を上手く探っていく事が重要になります。

2. API・データ基盤の整備

ここまで特化型AIエージェントの重要性について記載してきましたが、では、「我が社も独自の特化型AIエージェントを開発しよう!」と思い立てばとにかくAIエージェントの開発が進められるのでしょうか?

実は、自社の強みを活かすAIの構想策定や企画と同等に重要になるのが、「AIが自由に動ける環境がそもそも社内で整っているか?」という事です。

特化型AIエージェントの構築には、当然社内情報へのアクセスが必須になりますが、AIエージェントが社内情報にアクセスできるかどうかは、言い換えれば、システムとのAPI連携ができるか、またデータ基盤にデータが整備されているかという事になります。

技術的な形で端的に言ってしまえば、AIがシステムとAPIでやり取りできるか、また必要なデータをデータ基盤からSQLで取ってこれるかという事になります。

AIエージェントは人間と違い、システムの画面(GUI)の操作はしないので、システムからデータを取得したり、システムにデータを登録する場合はAPIを介して実施し、企業のデータ等にアクセスする場合は、データ基盤に対してSQLを発行してデータを取得します。

そのため、社内にまだまだ紙が多く、オンプレのGUI操作しかできないシステムばかりで、データも各所に散在しているというような状況では、そもそもAIがデータにアクセスできないので、特化型AIエージェントの開発は進められません。

また、今後どれだけ強い基盤モデルが出てきたとしても、AIにできる事はかなり限定的になってしまいます。

これは、どれだけ速く走れる車が開発されたとしても、舗装されていない道路やそもそも通れないような道路では、その機能を発揮する事はできない事と同じになります。

「今までデジタル化は積極的に進められていなかったけど、今からAIを頑張れば一気に巻き返せないか」と期待する方もいるかもしれませんが、ここはリープフロッグのような事はなく、これまで地道にDXを進めてきた企業がいち早くスタートを切れる上に、その速度も上げられるという状態になっています。

これまでのDX推進がAIによってゲームチェンジしたように見えますが、どちらかというと、これまでDXをしっかりやってきた企業(地道に足回りを整えてきた企業)が、更に加速できるという位置づけで捉えておく必要があります。

ただ、「順番的にはAPIやデータ基盤を整える事が先で、AIエージェントの開発は後じゃないの?」と思う方もいるかもしれませんが、特化型AIエージェントの開発の重要性をこちらより先に書いたのは理由があります。

それは、「DXはあくまでアウトプットファーストで進めるべき」だという事です。というのも、ビジネス部門とIT部門に距離がある場合に典型的に起こるケースですが、先にIT部門がデータ基盤を整えたものの、具体的に何に使うかが決まっていない(実際のところ誰も使っていない)というケースがよくあるためです。

これは典型的なインプットファースト的な進め方で、いつか使うかもと思って勉強した事が、結局使う機会がなかったという事と同じことです。

データをとにかくためれば、何かしら良いAIができるという事はなく、実際の所、どういうAIが必要なのかという事が具体的に決まらなければ、どのデータが必要なのかという事は定義できません。

「AIにはデータが必要だからとにかくデータを整備しないと」「うちはデータが整備できていないからAIの導入はできない」という人が多くいますが、実際は逆で、「こういうAIを作りたいから、こういうデータが必要」というのが正しい検討の順番になります。

つまり、自社で作りたい特化型AIエージェントのイメージが具体的にできると、このAIを作るためにどのデータが必要なのかという事が具体的に決まってきます。

データの粒度に関しても、月単位で良いのか、日単位で必要なのか、バッチで処理できれば良いのか、リアルタイムで最新情報にアクセスする必要があるのかなどは、実際のアウトプットの機能が決まらなければ具体的には決まりません。

API・データ基盤の整備はもちろん重要ですが、「API・データ基盤を整備しよう」と言っても、これ自体ではスコープが決まらないので、先に特化型AIエージェントのアウトプットを定義して、そこから逆算で必要なAPI・データ基盤を整えていくという形が良いでしょう。

インプットファースト的な思考で、「これも使うかも」と用意しておいたデータは使われずに終わる事が多いため、アウトプットファーストで進める方が、最短距離で無駄なく走れます。

3. 統合UIの準備

これは実はAIに限った話ではないのですが、これからのAI時代にいよいよ真面目に検討を進めていかないといけないのが、この統合UIの検討になります。

というのも、今後汎用型や特化型AIエージェント等が更に増えていくことが予想されるものの、今時点の段階で既に、システムやデータが増え続けており、従業員からすると「どこに何があるのかよくわからない」という状態になっているからです。

特に大手企業においては、いわゆる社内ポータルサイトのような所で利用できるシステムのリンクを一覧化されているケースも多いと思いますが、おそらく社内のシステムと機能を全て熟知している人は誰もいないでしょう。

従業員の間で「こんなシステムあったんだ。。」「ここからこのデータ取れるんだ。。知らなかった。。」というような会話は日常茶飯事の状況で、システムの利便性を向上させるという名目と同等かそれ以上に、そもそもちゃんと認知され、利用されているのかという事をモニタリングする事がDX・IT部門にとって重要な課題になっています。

そして今後更に、活用できるデータとシステムは増え続けるため、もはや各個人が認識できるレベルは完全に超えてしまうと言ってよいでしょう。

そもそも個人のレベルで正しく認識して使い分けられるシステムの数はおそらく5個前後ではないでしょうか。10個程度までならまだなんとかなりますが、20や30、それ以上のシステムがあるという状態になってくると、認知の限界を超えてしまい、そもそも知らないというシステムが多数の状態になってしまうでしょう。

既にこのような状況において、各システムに新規のAI機能を載せたり、個別の特化型AIエージェントを開発しても、そもそも認知・普及の壁を越えられないという事が容易に想像できます。

どれだけ便利なシステムやAIを構築しても、存在やその利便性自体が知られていなければ、当然ながら構築した意味がありません。

一方で、各システム担当やAI構築担当がそれぞれ独自に社内の認知・普及に力を入れると、同じ会社内にも関わらず、各担当が限られた従業員の認知リソースを取り合うような構図になってしまいます。

こうなると、声の大きい部署や社内マーケティングの上手い部署の物ばかりが目立つという事になります。

本来であれば、DX・IT部門はシステムやAIの構想策定・企画、開発・テスト、ユーザビリティ向上や品質改善に力を注ぐべき所が、認知・普及のための社内マーケティングに割かなければいけない工数がどんどん膨れ上がっていくという事です。

このように、システムやデータが増え続け、更にAIエージェントも新規に構築されていくような時代においては、「従業員の認知の問題をどうするか」という事は避けては通れない問題になります。

ここで1つ有効なソリューションは、AIをコンシェルジュとした統合UIを作成し、各システムや、特化型AIエージェント群とのタッチポイントにする事です。

各システムや特化型AIエージェントは当然、それぞれの目的を達成するための最適なUI構成になっているため、これ自体を一つに統合する事は現実的ではありません。

これだけ変化の速い時代でモノシリックなアーキテクチャはいずれ崩壊するので、マイクロサービスのような状態を保っておく必要があります。

あくまで既存のシステムなどには手を入れずに、ユーザーが最初にアクセスする統合UIを用意し、ここから目的に応じて、必要なシステムやAIエージェントに誘導させる形が一つの有効な形になります。

これは簡単に言ってしまえば、「社内で利用できるシステムやAIエージェントを全て熟知している人にいつでも聞ける状態を作る」という事です。

この状態の利点は、利用者となる従業員側とシステムやAIエージェントを展開するDX・IT部門側の双方にあります。

まず従業員側としては、今後様々な新しいシステム、AIエージェントが展開される中で、とりあえずここに最初にアクセスすれば良いという状態になるので、システムやデータの利活用に迷う事がなくなり、非常に楽になります。

社内システムやSaaSを含め利用システムが多く、チャットボットが乱立していたり、いつの間にか新しいシステムに移行していたりと、社内IT環境に辟易してしまっている従業員の方も多いのではないでしょうか。その一方で、「こんなシステムがあるならもっと早く知りたかった。。」という声も多くあります。

つまり、「あ、それをやりたいなら、このシステム・AIを使って、こうすると良いですよ」と最短で教えてくれるコンシェルジュ的なAIがいるのは、従業員側として非常に有難いという事です。

特に人材の流動性が高まる中で、新入社員の方や人事異動で新しい部署に来た方達にとっても強い味方になるのではないでしょうか。

そして、利用者側だけでなく、DX・IT部門側にとっても利点が大きく、その理由は、本来力を入れるべきシステムやAIの開発に集中できるという事です。

どういう事かというと、先ほど説明したように、既に各個人の認知可能な範囲を超えるレベルで、システムやアプリ・AIがあるため、DX・IT部門は開発だけに集中できる状態ではなく、社内マーケティングのような活動が必要になってしまっています。

つまり、新規のBIやAIアプリなどの場合で特に顕著ですが、単純に開発してリリースすれば終わりではなく、リリース後の説明会の実施や勉強会、地道な普及活動など、知ってもらう・使ってもらうための活動のウェイトがどんどん大きくなっているという事です。

私自身、かなり良い物ができたなとチームでは自信を持っていたものの、リリース後に思ったように利用率が上がらず、「何かUXや機能面に課題があるのかな。。」と思い、個別にアンケートを取ってみると、「こんなに良い物があるならもっと早く教えて欲しかった」という意見が多数で驚いた事があります。

関係者を集めた説明会や通知はしっかりやっていたつもりでしたが、それでも社内ITが複雑化している中、知ってもらうというハードルはどんどん大きくなっているという事です。

今後この傾向は更に強くなっていくため、発想の転換が必要になります。ここでポイントとなるのは、各個人が認識できるシステムやアプリの数には限界があるものの、AIにはその限界はないという事です。

つまり、各従業員に全てのシステムを認知して使い分けてもらう事は諦め、AIに全てを認識させ、必要な物をレコメンドしてもらう形にする事によって、社内マーケティングを事実上不要にするという事です。

従業員側としては、統合UIにひとまずアクセスして、AIコンシェルジュにやりたい事を言えば最適なシステムやAIエージェントを案内してくれ、DX・IT部門側としては、この統合UIのAIコンシェルジュが参照する情報に新システムやAIエージェント等の情報を登録しておけば良いという形になります。

このように統合UIが、従業員とDX・IT部門のコミュニケーションの潤滑剤のような役割を果たしてくれるため、従業員側としては社内ITの活用に迷う事がなくなり、DX・IT部門としてはシステムやAIの開発に集中できるようになります。

とはいえ、「この統合UIの開発が難しいのでは?」と思うかもしれませんが、どちらかというとここは各システムやAIエージェントとの独立性を高くしておいた方が良いため、まずは各システムやAIエージェントの一覧情報のリストを作成し、利用者からのリクエストに対して、必要なシステムやAIエージェントの機能紹介と共に、URLを案内するというような形から始めれば良いでしょう。

統合UI側に各システムやAIエージェントの機能を寄せ始めるといくらでも膨張し、いつの間にか重厚長大な物になってしまうため、あくまで各システムやAIエージェントの案内のハブの役割として、薄くレイヤーを被せるという位置づけのほうが良いでしょう。

認証やアクセス制御、詳細な利用マニュアル等も、一旦URLに遷移させてから各システムやAIエージェントに任せるという形で割り切ったほうが良いでしょう。とにかく、各システムやAIエージェントとは疎結合の状態にしておく事が重要になります。

個別特化の機能は持たせずに独立性を保った上で、あらゆる従業員とのタッチポイントになるため、レスポンス性や安定性、画面のデザイン含め、UXの向上に注力する事が重要になります。

一方で、広く社内情報を検索できるという機能は備えておいても良いでしょう。こちらは、あくまで専用の作り込みはせず、適合性ではなく再現性重視の社内情報検索機能になります。

精度はともかく、ひとまず社内情報に一通り届くという事を目的とし、「こういう事やりたいんだけど関連資料ないかな」という時に、関連性の高そうな情報を一通り返してくれる、いわば、社内全文検索のAIによる強化版のような形です。

RAGによる社内情報検索アプリの構築で最もはまるケースは、ピンポイントで情報を返させようとしすぎて、その精度が出ずにいつまでもリリースできないという事です。

特定の領域の精度を上げようとすると、むしろ他の領域の精度が下がってしまう、あちらを立てればこちらが立たずという状態になります。

また、現状のドキュメントでは精度が出たが、ドキュメントを更新すると途端に精度が下がってしまったというケースも多くあります。

従業員側としては、関連しそうな情報を広く拾ってきてくれるだけでも十分有難いので、適合性はある程度諦め、再現性重視の社内情報検索機能はこの統合UIの機能として入れておくと良いでしょう。

もちろん、特定の領域・目的に対して、精度高く情報を検索させたい(適合性を高めたい)という場合は、特化型AIエージェントとして開発・リリースすれば良いです。

この統合UIのイメージとしては、Googleが発表したAgentSpaceが参考になります。社内のアプリやAIとのタッチポイントとなる上にNotebookLMによって社内情報の検索等も容易に実現できます。MicrosoftのCopilotも構築したAIエージェントに容易にアクセスできる機能を持ち、同じような位置づけになっていくでしょう。

では、「この辺りをそのまま使えば良いのでは?」と思うかもしれませんが、1つ注意点があります。

統合UIはあらゆるシステムやAIエージェントとのタッチポイントになるため、気をつけなければ容易にロックインしてしまうという事です。

先ほど疎結合の状態を保つ事の重要性を強調したのもそうですが、この統合UIを外部ツールで構築し、社内システムとの連携度を高めてしまうと、おそらく途中でスイッチする事が難しくなってしまいます。

いつの間にか周辺ツールも含め、意図せずともそのベンダーの関連製品が多くなってしまう事でしょう。あらゆるシステムやAIエージェントとのタッチポイントになるからこそ、ロックインしないように、その独立性を高めておく事が重要になります。

また、統合UIはその企業のビジネスモデルや従業員・組織形態によっても最適な形が当然異なるため、自由にUIをカスタムできる状態にしておくほうが望ましいでしょう。

ベンダーのツールは良くも悪くも、誰もが簡単に使えるようにUIがほぼ固定化されているため、リリース後に自社独自のカスタム要件が出てきた場合、個別のSIによりむしろ高くつくという状態になります。

最近は従業員1人当たりの課金という製品が多くなってきている事もあるため、ランニングコスト面やロックインの危険性も加味し、統合UIに関しては、特定のベンダー依存しすぎないように、自社独自のものを構築したほうが良いでしょう。

ここまで長く記載してきましたが、生成AI・AIエージェント時代のDX推進においては、自社の強みを最大化する「特化型AIエージェントの開発」、その開発を支える「API・データ基盤の整備」、そして、従業員を迷わせないための「統合UIの構築」が重要になります。

まとめ

いかがだったでしょうか。

良くも悪くも、AIが世間で広く注目されるようになり、AIに関して、あまり重要でない情報も広く流布されるようになりました。

重要なもの、重要でないものも含め、日々新しい情報の多さに混乱している人も多いかと思いますが、企業の取り組みで本質的に抑えておくべきポイントはそれほど多くありません。

一過性の情報に左右されることなく、DX推進の幹の部分を太くしていく一助になれば幸いです。