OpenAIやGoogle、Microsoftなど、大手AIプロバイダーが精力的にAIモデルをリリースし、急速に一般消費者が生成AIを利用するシーンが広がっています。また、国内企業も積極的にAIのビジネス利用を進めており、イノベーションや業務効率化により深く浸透することは間違いありません。その一方で、生成AIの課題の一つとして挙げられるのが、ハルシネーション(誤情報)です。AIが学習する情報は正規な企業情報だけではなく、批判記事やSNSなど多岐にわたります。
「生成にAI誤情報監視サービス」は、各生成AIサービスが自社に関連したプロンプトに対して、誤った情報を返信していないかを監視いたします。
生成AIは必ずしも正しい返信をするとは限りません。
信頼性や評判を落とす真偽確認は、これからの常識です。

生成AIの生成した情報をAIにより自動分類し、AI分析アナリストが目視で文脈を分析します

生成AIが参照した情報(ソース)サイトに対し、独自のアルゴリズムで信頼度を分析します

検知された誤情報に対する最適な回答の生成・修正方法について、専門家がサポートします
生成AI誤情報監視サービスは、企業や製品について想定される生成AIへのプロンプトを設計し、自動的に大手AIプロバイダーのサービスで回答を生成します。その結果を蓄積することで生成AI毎の真偽傾向の把握と対策のきっかけを得ることができます。
現状、監視対象としているAIプロバイダー(アルファベット順)は次となります。
検知内容の報告に加え、生成AIに正しい情報を認識させるための施策内容をご提案します。

生成AIは、人間の反応を模した会話の相手として始まりましたが、今では、情報の分析から画像の生成、映像の生成まで、生成の範囲と精度が飛躍的に向上しており、日々の変化が最も大きな技術分野です。大手生成AIプロバイダーがしのぎを削り、まさに日進月歩でイノベーションが続いています。
生成AIの利用に関しては、一般消費者が利用を牽引しているといっても過言ではありません。個人として、情報の整理やアート作品の制作など、あらゆるシーンで生成AIの利用が始まっています。そして企業においては、生成AIの利便性を日常生活で理解した社員が、業務の効率化のために利用しつつあります。
このように、急速に浸透しつつある生成AIについては、生成AIの利用ガイドラインやシャドーAIの把握など、企業として利用する際のリスクマネジメントが必要となります。
その中でも、AIには、ハルシネーション(誤情報)と呼ばれる、生成AIが事実に基づかない情報や、もっともらしい嘘をあたかも真実であるかのように出力してしまう現象が発生します。また、企業などの公式サイトの情報だけではなく、批判記事やファンサイト、時にSNSの内容も学習対象となることがあり、生成AIの出力内容が当事者(企業や個人)の思いとは異なる場合があります。
こうした結果は、場合により企業の評判や評価の下落につながる可能性があり、生成AIによるレピュテーションリスクが生まれています。
初期構築の目安として1ヵ月程を想定しています。
01 | ヒアリング お客様の現状の課題や製品に関する情報を伺い、監視対象のテーマを確定します。 |
02 | プロンプト設計 ChatGPT、Gemini、Copilot、Grok、AIOを対象とし、プロンプトの設計を行います。 |
03 | 監視対象の生成AIから生成情報を蓄積 プロンプトを自動送信し、生成情報を蓄積し分析に備えます。 |
04 | AIと人の目のよる分析 真偽確認が必要な内容をAIおよび専門のアナリストが分析します。 |
05 | 報告 初回報告:分析期間(約1か月)の監視結果と傾向をレポート提供 |
06 | 対策コンサルティング 検知された誤情報に対する最適な回答の生成・修正方法(LLMO)について、専門家がサポートします。 |