ディープラーニングは機械学習(ML)の分野の1つで、人工ニューラル・ネットワーク(人間の脳の働きを模したアルゴリズム)に大量のデータから学習させます。
ディープラーニングは、多層のニューラル・ネットワーク(人間の脳の働きを大雑把に模したアルゴリズム)によって機能します。大量のデータでトレーニングすることで、ニューラル・ネットワークのニューロンが構成されます。その結果生まれたのが、トレーニング後に新しいデータを処理するというディープ・ラーニング・モデルです。ディープ・ラーニング・モデルでは、人間の介入なしに、複数のデータソースから情報を読み込み、そのデータをリアルタイムで分析します。グラフィック・プロセッシング・ユニット(GPU)は複数の計算を同時に処理できるため、ディープラーニングでは、GPUがトレーニング・モデル用に最適化されています。
ディープラーニングは、自動化タスクや分析タスクを改善できる多くの人工知能(AI)テクノロジの原動力となっています。インターネットを閲覧するときや、携帯電話を使用するときなど、ほとんどの人が毎日ディープラーニングに触れています。他には、YouTubeビデオの字幕の生成や、携帯電話およびスマートスピーカーの音声認識、写真の顔認識、自動運転車など、ディープラーニングの用途は無数にあります。データ・サイエンティストや研究者がディープ・ラーニング・フレームワークを活用しながら、ますます複雑なディープ・ラーニング・プロジェクトに取り組んでおり、この種の人工知能が日常生活においてさらに大きな部分を占めることが予想されています。
簡単に言えば、ディープラーニングとは、多くの層があるニューラル・ネットワークに付けられた名前です。
ニューラル・ネットワークでは、写真やオーディオなどの観測データを理解するために、相互に接続されたノードの層にデータを通します。情報が層を通過するときに、その層の各ノードでデータについて簡単な演算が実行され、その結果が他のノードに選択的に渡されます。ネットワークによって出力が作成されるまで、後続の各層では直前の層より高いレベルの特徴に焦点が当てられます。
入力層と出力層の間には、隠れ層があります。ここにニューラル・ネットワークとディープラーニングの違いがあります。基本的なニューラル・ネットワークでは、1つまたは2つの隠れ層があるのに対して、ディープ・ラーニング・ネットワークでは数十から数百の層があることがあります。異なる層およびノードの数を増やすことで、ネットワークの精度を向上させることができます。ただし、層を増やすと、より多くのパラメータと計算リソースがモデルに必要になります。
ディープラーニングでは、生データを受信する一連の入力を備えたニューラル・ネットワークの複数の層を介して情報が分類されます。たとえば、ニューラル・ネットワークを鳥の画像でトレーニングした場合は、鳥の画像を認識するために使用することができます。層を多くすることで、カラスと鶏の区別からカラスとワタリガラスの区別へとより正確な結果が得られるようになります。ディープ・ラーニング・アルゴリズムの背後にあるディープ・ニューラル・ネットワークでは、入力ノードと出力ノードの間に複数の隠れ層があるため、より複雑なデータ分類を実行できることがわかります。ディープ・ラーニング・アルゴリズムは、大量のデータセットでトレーニングする必要があり、読み込むデータが多ければ多いほど精度は向上します。新しい鳥の写真を正確に分類できるようになるには、何千枚もの鳥の写真を読み込ませる必要があります。
ニューラル・ネットワークについて言えば、ディープ・ラーニング・モデルのトレーニングには、非常に多くのリソースを消費します。このときに、ニューラル・ネットワークが入力を取り込み、隠れ層でトレーニング時に調整された重み(入力間のつながりの強さを表すパラメータ)を使用してそれらを処理することで、モデルは予測を出力できるようになります。重みは、予測を向上させるためにトレーニング入力に基づいて調整されます。ディープ・ラーニング・モデルでは、大量のデータをトレーニングするために多くの時間を費やされるため、高性能のコンピューティングが非常に重要になります。
GPUは、データ計算用に最適化されており、大規模なマトリックス計算を迅速に実行できるように設計されています。GPUは、大規模な機械学習(ML)やディープラーニング問題のパラレル実行に最適です。その結果、大量の構造化データや非構造化データ(画像、テキスト、ビデオなど)について多数の計算を実行するMLアプリケーションでも、優れたパフォーマンスを発揮することができます。
ディープラーニングの大きなメリットの1つは、そのニューラル・ネットワークを使用して、それまで見えなかったデータに隠されてるインサイトや関係性を明らかにできることです。大規模で複雑なデータを分析できるより堅牢な機械学習モデルでは、企業は次のメリットを活用することで、不正検出、サプライチェーン管理、およびサイバーセキュリティを改善できます。
ディープ・ラーニング・アルゴリズムは、テキストデータを見るようにトレーニングすることができるため、ソーシャルメディアの投稿や、ニュース、調査を分析して、ビジネスや顧客に関する貴重なインサイトを提供することができます。
ディープラーニングでは、トレーニング用にラベルを付けたデータが必要になります。トレーニングした後は、自動で新しいデータにラベルを付け、データのタイプを特定することができます。
ディープ・ラーニング・アルゴリズムでは、人間が生データから特徴量を手動で抽出する必要がないため、時間を節約できます。
ディープ・ラーニング・アルゴリズムを正しくトレーニングすると、何千ものタスクを人間よりも速く繰り返し実行できるようになります。
ディープラーニングで使用されるニューラル・ネットワークは、さまざまなデータ型やアプリケーションに適用できます。さらに、ディープ・ラーニング・モデルを新しいデータで再トレーニングして適応させることもできます。
AI、機械学習、ディープラーニングはすべて関連していますが、それぞれ異なる機能があります。
人工知能を使用することで、コンピュータ、機械、ロボットに、意思決定、オブジェクトの認識、問題の解決、言語の理解などの人間の能力を模倣させることができます。
機械学習はAIの分野の1つで、人間が介入することなく、データから学習し、時間の経過とともにその正確性を向上させることができるアプリケーションの構築に焦点を合わせています。機械学習アルゴリズムをトレーニングし、パターンを見つけてより適切な意思決定および予測を行うこともできますが、これには、通常、人間の介入が必要になります。
ディープラーニングは、機械学習の分野の1つで、コンピュータがより複雑な問題を解決できるようにするものです。ディープ・ラーニング・モデルでは、新しい特徴量を自動で作成することもできます。
ディープラーニングを使用して、多数の画像を分析することができます。これは、ソーシャルネットワークでユーザーについてより多くの情報を確認するのに役立つことがあります。これにより、ターゲティング広告やお勧めのフォローなどを改善できます。
ディープラーニングのニュートラル・ネットワークを使用して、株式価格を予測し、取引戦略を開発できます。また、セキュリティの脅威を特定し、不正から保護することもできます。
ディープラーニングは、傾向と行動を分析して患者の疾病を予測できるため、医療分野において重要な役割を果たすことができます。医療従事者は、ディープ・ラーニング・アルゴリズムを使用して、患者にとって最適な検査や治療を決定することもできます。
ディープラーニングは、既知の脅威のデータベースに応答するのではなく、新しい疑わしいアクティビティを認識できるため、従来のマルウェア・ソリューションよりも効果的に高度な脅威を検出できます。
デジタルアシスタントは、最も一般的なディープラーニングの例です。自然言語処理(NLP)により、Siri、Cortana、Google、およびAlexaは、質問に応答し、ユーザーの習慣に適応することができます。
ディープラーニングの新しい用途が次々に明らかになっていますが、制限付きの進化を続ける分野であることに変わりありません。
より洞察力のある抽象的な回答を得るには、大量のデータでディープラーニングをトレーニングする必要があります。人間の脳と同様に、ディープ・ラーニング・アルゴリズムが失敗から学び、成果を改善するには、実例が必要になります。
機械学習では、まだきわめて狭い方法で学習しているため、間違いが発生することがあります。ディープ・ラーニング・ネットワークには、特定の問題を解決するためのデータが必要です。範囲外のタスクを実行させると、高い確率で失敗します。
ディープラーニングでは、数百万のデータポイントを調べてパターンを見つけますが、ニューラル・ネットワークがどのようにしてその解決策に到達したかを理解するのが難しいことがあります。データの処理方法に関するこの透明性の欠如のため、不要なバイアスを特定したり、予測の理由を説明したりすることは簡単ではありません。
これらの障害にもかかわらず、データ・サイエンティストは、監督なしで学習することができる、非常に精度の高いディープ・ラーニング・モデルの構築にますます近づいています。これにより、高速で手間のかからないディープラーニングが実現することが見込まれています。
ビジネスデータが爆発的に増加しているため、データ・サイエンティストには、従来のオンプレミスITハードウェアを超える柔軟性を備えたディープ・ラーニング・モデルを迅速に調査および構築する能力が必要とされています。
Oracle Cloud Infrastructure(OCI)は、データ集約型ワークロード、高速クラウドストレージ、100 Gbps RDMAを使用した低レイテンシで高スループットのネットワーキングに最適なコストパフォーマンスのコンピューティングを提供します。OCIには、ディープラーニング向けのGPUコンピュート・インスタンスや簡単にデプロイできるイメージが用意されており、シングルGPUワークステーションやマルチGPUシェイプのクラスタを実行する柔軟性も備えています。
高性能のクラウド・インフラストラクチャで機械学習モデルを構築、トレーニング、およびデプロイするには、Oracle Cloud Infrastructure Data Scienceをお試しください。データ・サイエンティストは、ノートブック・セッションでNVIDIA GPUを使用して、はるかに短い時間でディープ・ラーニング・モデルを構築およびトレーニングできます。また、インフラストラクチャのプロビジョニングや保守について心配することなく、あらゆる規模のプロジェクトに取り組むために必要なコンピュート・リソースとストレージ・リソースの量を選択できます。加えて、OCI Data Scienceによって、データのアクセス、アルゴリズムの選択、モデルの説明などのデータ・サイエンス・タスクを合理化することで、モデルの構築にかかる時間を短縮できます。