AI推論とは

Jeffrey Erickson | コンテンツ・ストラテジスト | 2024年4月2日

推論とは、素人にとっては証拠と論理的思考に基づいた結論のことです。人工知能における推論とは、AIがキュレーションされたデータセットでトレーニングを重ねた後、推論を行い、見たことのないデータから結論を導き出す機能のことです。

人工知能の推論を理解することは、人工知能の仕組みを理解する上で重要なステップです。ここでは、AIシステムが結論を導き出すまでのステップ、課題、ユースケース、そして今後の展望について説明します。

AI推論とは

AI推論とは、キュレーションされたデータセットのパターンを認識するようにトレーニングされたAIモデルが、今まで見たことのないデータのパターンを認識し始めることです。その結果、AIモデルは人間の能力を模倣した方法で推論し、予測を行うことができます。

AIモデルは、ニューラル・ネットワーク、つまり人間の脳のように構造化された言語モデルでトレーニングされた意思決定アルゴリズムで構成され、特定のタスクを実行します。シンプルな例では、データ・サイエンティストはAIモデルに、何千台、何百万台もの車の画像と、そのメーカーやモデルを記したデータセットを見せることがあります。しばらくすると、アルゴリズムはトレーニング・データセット内の車を正確に識別し始めます。AI推論とは、モデルにランダムなデータセットを示し、許容できる精度で車のメーカーとモデルを割り出す、または推論することです。このようにトレーニングされたAIモデルは、国境や橋の料金所で使用され、ナンバープレートと車種を迅速に照合することができます。同様のプロセスは、医療、銀行、小売、その他多くの分野で機能するように、より繊細な推論と予測でAI推論を導き出すことができます。

主なポイント

  • AI推論とは、AIモデルが新しいデータから結論を推測または推定する機能を指します。
  • AIモデルは、人間の論理的思考と言語を模倣する驚異的な機能によって推論を行います。
  • AI推論は、キュレーションされたデータセットを使用してAIモデルをトレーニングするテクノロジーとテクニックを組み合わせたプロセスの最終目標です。
  • 成功には、堅牢なデータ・アーキテクチャ、クリーンなデータ、および生産環境でAIをトレーニングおよび実行するための多くのGPUサイクルが必要となります。

AI推論の説明

AI推論は、AIモデルのライフサイクルの中で、AIトレーニング・フェーズの後に続くフェーズです。AIモデルのトレーニングは機械学習(ML)アルゴリズムが課題をこなすこと、AI推論は試験に合格することであると考えてください。

AIトレーニングでは、大規模でキュレーションされたデータセットをモデルに提示し、手元のトピックについて学習できるようにします。トレーニング・データの役割は、特定のタスクをこなすようにモデルをトレーニングすることなので、データセットはさまざまです。それらは猫や橋の画像、録音されたカスタマーサービスの通話、医療画像などが含まれる場合があります。AIモデルはライブ・データを分析し、パターンを認識し、データセットの次に何が起こるかを正確に予測することができます。

たとえば、大規模言語モデル(LLM)の場合、モデルは次に来る単語を推測し、非常に正確かつ流暢に文章や段落を作成することができます。

AI推論が重要な理由

AI推論は、その認識が、トレーニング済みのAIモデルが新しいデータを分析し、インサイトを生成する方法であることから重要です。リアルタイムに予測したりタスクを解決する機能がなければ、AIは教育、工学、医学の発見、宇宙探査など新しい役割に進出し、あらゆる産業でユースケースを拡大することに苦労します。

実際、推論はどのAIプログラムにとっても重要です。データ・セットのパターンを認識し、正確な結論と予測を推論するAIモデルの機能は、AIの価値の核心です。つまり、レントゲンを数秒で正確に読み取ったり、何千、何百万ものクレジット・カード取引から不正を特定できるAIモデルは、十分に投資価値があります。

推論の種類

大規模な取引が詐欺ではないかなど、ほぼリアルタイムに精度の高い意思決定ができるAIシステムは必要でしょうか。それとも、何かが壊れる前にメンテナンスを要請するように調整されているセンサーのように、すでに使用したデータを使用して将来を予測できることの方が重要でしょうか。AI推論のアプローチを理解することにより、プロジェクトに最適なモデルの選択を支援します。

  • バッチ推論
    バッチ推論とは、データのバッチを使用してオフラインでAI予測を生成することです。このアプローチでは、データは長期にわたって収集され、一定の間隔でMLアルゴリズムにかけられます。バッチ推論は、AIの出力がすぐに必要でない場合に適した選択です。これは、1時間ごとまたは毎日更新されるビジネス・アナリティクス・ダッシュボードにAI予測を提供するうえで効果的です。
  • オンライン推論
    オンライン推論は、「動的推論」と呼ばれることもあり、要求されたときにすぐにAI予測を提供する方法です。オンライン推論は、低レイテンシであることが必要となるため、バッチ推論よりも困難な場合があります。

    オンライン推論のためのシステム構築には、前もってさまざまな意思決定が必要となります。たとえば、一般的に使用されるデータをキャッシュして迅速にアクセスできるようにしたり、予測に到達するまでの運用要件が少ない、よりシンプルなAIモデルを見つける必要がある場合があります。エンドユーザーがAI出力結果を見る前にレビューする時間がないため、オンライン推論では、予測が許容範囲内に収まっていることを確認するために、別のレイヤーでリアルタイム・モニタリングが必要になる場合があります。OpenAIのChatGPTやGoogleのBardのような一般的な大規模言語モデル(LLM)は、オンライン推論の例に挙げられます。
  • ストリーミング推論
    ストリーミング推論はIoTシステムでよく使用されています。LLMのように人とやりとりするようには設定されていません。その代わりに、マシン・センサーからの定期的な測定値などのデータ・パイプラインがMLアルゴリズムに流れ込み、継続的に予測を行います。センサーの読み取り値のパターンは、モニターされているマシンが最適に動作していることを示すこともあれば、アラート、メンテナンス、修理依頼のトリガーとなるトラブルを示すこともあります。

ディープラーニングのトレーニングと推論の違い

ディープラーニングトレーニングとAI推論は、AIモデルから役立つ出力を得るために必要な同じプロセスの2つの部分です。ディープラーニングのトレーニングが先に行われます。これはAIモデルのトレーニング方法であり、人間の脳から着想を得た方法でデータを処理します。モデルをトレーニングすると、データからより深いレベルの情報を認識する機能が得られます。たとえば、画像の形状を認識することから、画像に含まれる可能性のあるテーマや活動を認識することまで可能です。AI推論はトレーニングの後に行われ、AIモデルは新しいデータにおけるこれらの要素を認識するように求められます。

AI推論の仕組み

特定のユースケースでAI推論が価値を提供するためには、多くのプロセスに従う必要があり、テクノロジー・アーキテクチャ、モデルの複雑さ、データに関して多くの意思決定を行う必要があります。

  • データ準備
    組織内のデータから、または外部のデータセット(場合によってはオープンソース・データセットを含む)を特定することによって、トレーニング・データを収集します。社内外のデータセットを組み合わせることもよくあります。データセットが決まったら、重複、不要なデータ、フォーマットの問題を取り除くためにデータをクレンジングする必要があります。
  • モデルの選択
    必要なAI出力を提供するように設計されたオープンソース、一般的なエンタープライズ、または専門的なモデルを特定します。モデルにはさまざまな複雑さがあることにご留意ください。より複雑なアルゴリズムは、より広範な入力セットを取り込み、より微妙な推論を行うことができますが、望ましい出力を得るためにはより多くの操作が必要になります。複雑さとコンピュート・リソースの必要性の観点から、ニーズに合ったモデルを見出します。
  • モデルの最適化
    AIトレーニング体制を繰り返し行うことで、モデルを最適化します。トレーニングの各ラウンドの目標は、望ましい出力精度に近づける一方で、そこに到達するために必要なメモリと処理能力を削減することです。モデルの最適化とは、コストを削減しレイテンシを最小限に抑えながら、AI推論の有用性を向上させることです。
  • モデルの推論
    これは、AIモデルがトレーニング・フェーズから運用フェーズに移行し、新しいデータから推定を行うことを示します。モデルが製品に近づくうえで、出力される推論と予測の内容を確認します。この時点で、精度、先入観、データプライバシーに関する問題をチェックすることができます。
  • 後処理
    AIにおける後処理とは、モデルの出力をチェックするための一連の手法を指します。後処理には、データのフィルタリング、結合、統合を行うルーチンが含まれ、使いにくい、または役に立たない出力の除去を支援します。
  • 導入
    導入とは、AIモデルをサポートするアーキテクチャとデータ・システムを正式化、スケールアップし、通常のビジネス・プロセスで使用できるように確保することです。これは、教育と変更管理を行う時期でもあり、より幅広い組織の人間がAIの出力を受け入れ、業務で使用するように指導される時期でもあります。

AI推論のハードウェア要件

AI推論は、大規模なデータセットを使用してAIモデルを連続的にトレーニングする、計算集約的なプロセスから得られる結果です。そのためには、多くのデータソースの統合と、AIモデルを効率的に実行できるアーキテクチャが必要となります。このプロセスを実現する主なテクノロジーは次のとおりです。

  • 中央処理装置(CPU)
    CPUはコンピューターの中枢です。これは、コンピュータのマザーボードに搭載され、オペレーティング・システムやアプリケーションを実行する、コンピュート回路を備えたチップです。CPUは、データストレージやグラフィック・カードなど、AIのトレーニングおよび推論に必要なコンピュート・リソースの管理を支援します。
  • グラフィック・プロセッシング・ユニット(GPU)
    GPUはAI推論の重要なハードウェアコンポーネントです。GPUはCPUと同様に、複雑な回路を持つチップです。また、CPUとは異なり、数学計算を迅速に実行し、グラフィックや画像処理をサポートするよう特別に設計されています。この処理能力が、計算負荷の高いAIのトレーニングや推論を可能にしています。
  • フィールド・プログラマブル・ゲート・アレイ(FPGA)
    FPGAは、エンド・ユーザーが特定の方法で機能するようにプログラムできる統合性回路です。AI推論では、FPGAを構成することで、ハードウェア速度や並列性の適切な組み合わせを提供することができ、データ処理作業を分割して異なるハードウェアで並行して実行できます。これによりAIモデルは、テキスト、グラフィック、動画など、特定のデータ型に対して予測を行うことができます。
  • 特定用途向け集積回路(ASIC)
    ASICは、ITチームとデータ・サイエンティストが必要なスピード、コスト、精度でAI推論を導き出すために使用するもう1つのツールです。ASICは、複数の回路を単一チップ上に組み合わせたコンピューター・チップです。このチップは、音声認識、画像操作、異常検知、その他のAIによるプロセスなど、特定のワークロードに合わせて最適化することができます。

AI推論導入の課題

AIモデルを設計または選択し、トレーニングすることは、ほんの始まりに過ぎません。AIモデルを導入して実際に推論を行うには、独自の課題が伴います。これには、モデルに質の高いデータを提供することや、後にその出力を説明することが含まれます。次に、留意すべき課題を列挙します。

  • データ品質
    「ガベージ・イン、ガベージ・アウト」という格言は、AI推論においても他と同様に当てはまります。AIモデルをトレーニングするデータは、適用性とフォーマットを吟味し、トレーニング・プロセスを遅らせる重複データや 無関係なデータをクレンジングする必要があります。
  • モデルの複雑さ
    AIモデルにはさまざまなレベルの複雑さがあり、車のメーカーとモデルを特定するようなシンプルなものから、放射線科医がCTスキャンやMRIを読み取る際にダブルチェックを行うAIシステムのような複雑で重要なものまで、さまざまな状況で推論や予測を行うことができます。通常AIトレーニングや推論における主な課題として、ニーズに合ったモデルを構築または選択することがあります。
  • ハードウェア要件
    AI推論トレーニングは、データ集約的な取り組みです。データ・ストレージとデータ解析のためのサーバー、グラフィック・プロセッサ、高速ネットワーク、そして場合によってはフィールド・プログラマブル・ゲート・アレイ(FPGA)や特定用途向け集積回路(ASIC)が必要となり、これらはAIの推論ユースケースに合わせてカスタマイズすることができます。
  • 解釈性
    AI推論が解釈可能または説明可能な場合、人間のトレーナーはAIがどのように結論に達したかを理解していることを意味します。それは、AIがその答えや予測に到達するために使用した論理的思考に従うことができます。解釈性は、AIガバナンスにおいてますます必要となる要件であり、AIの出力における先入観を見極めるうえで重要ですが、AIシステムが複雑化するにつれ、元となるアルゴリズムやデータプロセスが複雑すぎて人間が完全に理解できなくなる可能性があります。
  • 規制とコンプライアンス
    AIの規制は流動的です。データ・セキュリティ、説明可能性、そしてAI推論のための堅牢なレポート構造を組み込むことが重要です。これにより、プライバシー、データ・セキュリティ、AIの先入観に関する規制が進化しても、コンプライアンス要件を容易に満たすことができるように支援します。
  • スキルの高い人材の不足
    AI推論のためのシステムを設計、トレーニングおよび最適化するために必要な専門知識を身につけるには、時間、教育、経験が必要です。そのため、そのような専門知識を持つ人材を見つけることは難しく、採用するにはコストがかかります。

AI推論の応用

利用可能なデータから結論や予測を推測する機能により、AIモデルは常により多くのタスクに取り組んでいます。ChatGPTのような大規模言語モデルは、推論を使用して、驚異的な言語精度で単語や文章を選択します。 推論はまた、AIが言葉によるプロンプトに基づいて、どのようなグラフィックアートや動画を構築すべきかを推論することを可能にします。

AI推論は、産業システムのトレーニングにおいても重要な役割を果たすようになってきています。たとえば、AIを製造ラインでの目視検査に使用することで、人間の検査員はAIによって特定された欠陥や異常に集中することができ、コストを削減し、品質管理を向上させることができます。ロボットが人間と一緒に生産ラインで働く産業システムでは、AI推論が物体を感知し、微妙な動きを判断するために必要な知覚、予測、計画を実現します。

AAI推論のもう一つの一般的な用途は、ドライバーレスカーを完成させようとする多くの試みによって役立っているロボット学習です。Waymo、Tesla、Cruzなどの企業による長年のトレーニングに見られるように、ロボット学習では、ニューラルネットワークをトレーニングして、書面で書かれた交通ルールの例外を認識し、適切に反応する方法を学ぶため、多くの試行錯誤が必要です。

AI推論は研究者や医師もサポートしています。AIモデルは大量の化学データや疫学データをふるいにかけて治治療法を見つけるためにトレーニングされており、医療画像の微妙な手がかりを読み取って病気の診断を支援しています。

AI推論の未来

AI推論の次のステップは、大規模なクラウドやデータセンター環境から脱却し、ローカルのコンピュータやデバイスで実行できるようになることです。ディープラーニング・アーキテクチャを使用しているAIシステムの初期トレーニングは、引き続き大規模なデータセンターで実行されますが、新しい世代の技術とハードウェアは、データが生成されている場所に近い、より小さなデバイスに「ラストマイル」AI推論をもたらそうとしています。

これにより、よりカスタマイズされた制御が可能になります。デバイスとロボットは、より優れた物体検出、顔認識、行動認識、予測意思決定を獲得します。こうした話を聞いて、通常ロボットの基盤のように思われる方もいらっしゃることでしょう。イノベーターは今後数年間で、この「先端推論」テクノロジーを新しい市場や業界のさまざまなデバイスに導入しようとしています。

オラクルによるリアルタイムAI推論の高速化

オラクルは、AIモデルをトレーニングして大規模に導入するための専門知識と処理能力を提供します。具体的には、Oracle Cloud Infrastructure(OCI)は、ビジネス担当者、ITチーム、データ・サイエンティストがコラボレーションし、あらゆる業界でAI推論を活用できるプラットフォームです。

オラクルのフルマネージドのAIプラットフォームにより、チームはPythonおよび好みのオープン・ソース・ツールを使用して機械学習モデルの構築、トレーニング、導入、モニターを行うことができます。次世代のJupyterLabベースの環境では、企業はNVIDIA GPUと分散トレーニングを使用して、モデルの実験、開発、トレーニングのスケールアップを行うことができます。また、オラクルでは、Cohereの最先端のLLMベースの生成AIモデルに簡単にアクセスできます。

OCIでは、自動化されたパイプライン、モデル導入、モデルのモニタリングなどの機械学習運用(MLOps)機能により、モデルを本番環境に移行し、健全性を維持できます。モデルのトレーニングと導入に加えて、OCIは組み込みのMLモデルと利用可能なAIサービスを備えたさまざまなSaaSアプリケーションを提供します。

AIを操作すると、AI推論が実行されていることがわかります。それは、異常検知、画像認識、AI生成テキスト、その他ほとんどすべてのAI出力を使用する場合においても同様です。結果は、AIとのやりとりを実現するモデルの構築、トレーニング、最適化、導入といった、長く、技術的に複雑で、リソースを必要とするプロセスの集大成です。

企業独自のトレーニングを開始する前にAIセンター・オブ・エクセレンスを整備することで、AIプロジェクトの成功率が高まります。当社のeBookでは、その理由と、効果的なCoEを構築する方法について説明します。

AI推論に関するFAQ

AIにおける推論の例を教えてください。

AIにおける推論の適切な例としては、AIモデルが財務取引における異常を検出し、不正の種類を状況から理解できる場合が挙げられます。AIモデルはそれを受けて、カード会社と口座名義人にアラートを発することができます。

AIにおけるトレーニングと推論について教えてください。

トレーニングとは、AIモデルにキュレーションされたデータセットを見せて、AIモデルがパターンを確認して理解できるようにすることです。推論とは、AIモデルがキュレーションされたデータセット以外のデータを示され、同じパターンを見つけ、それに基づいて予測を行うことです。

機械学習において推論が示す意味を教えてください。

推論とは、機械学習アルゴリズムまたはアルゴリズムのセットが、キュレーションされたデータセットのパターンを認識できるよう学習し、その後新しいデータでそれらのパターンを見ることができることを意味します。

ディープラーニングにおいて推論が示す意味を教えてください。

ディープラーニングとは、人間の脳を模倣したニューラルネットワークを使用して機械学習アルゴリズムをトレーニングすることです。これにより、たとえば自然言語の生成に見られる微妙な概念や抽象化を認知および外挿できます。

AI推論をエッジ・デバイスで使用することは可能でしょうか。

AI推論のトレーニングは従来、データ集約的かつコンピュート集約的なプロセスでした。しかし、AI推測への理解が深まるにつれ、大規模なデータセンターから離れたエッジに存在する、よりパワーの低いデバイスによって実現されるようになっています。AI推論向けのこれらのエッジ・デバイスは、画像認識、音声、その他の機能をフィールド・オペレーションにもたらすことができます。

AI推論と従来の統計モデルとの違いを教えてください。

従来の統計モデルは、データセット内の変数間の関係を推論するためだけに設計されています。AI推論は、推論をさらに一段階進化させ、そのデータに基づいて最も正確な予測を行うように設計されています。

ハイパーパラメーターがAI推論のパフォーマンスに影響を与える仕組みについて教えてください。

AIモデルを構築する際、データ・サイエンティストはパラメータを手動で割り当てることがあります。AIモデルの標準パラメーターと異なり、これらのハイパーパラメーターは、モデルがデータセットから推論する内容によっては決定されません。ハイパーパラメーターは、AI推論と予測パフォーマンスを支援するために必要に応じて調整できる目安と考えることができます。

AI推論モデルの精度と信頼性を確保するために、組織が支援する方法を教えてください。

1つカギとなることは、出力が誰に対するもので、どのような問題を解決しようとしているのかを、前もって明確に知っておくことです。望ましい結果を具体的かつ測定可能なものにすることです。そうすることで、ベンチマークを設定し、それに対するシステムのパフォーマンスを継続的に測定することができます。