죄송합니다. 검색 내용과 일치하는 항목을 찾지 못했습니다.

원하시는 정보를 찾는 데 도움이 되도록 다음을 시도해 보십시오.

  • 검색에 사용하신 키워드의 철자가 올바른지 확인하십시오.
  • 입력한 키워드에 동의어를 사용하십시오. 예를 들어 “소프트웨어” 대신 “애플리케이션”을 사용해 보십시오.
  • 새로운 검색을 시작하십시오.
문의하기 Oracle Cloud에 로그인

딥 러닝이란 무엇인가?

딥 러닝 정의

딥 러닝은 머신 러닝(ML)의 하위 집합으로, 인간의 두뇌처럼 작동하도록 모델링된 알고리즘인 인공 신경망이 대량의 데이터에서 학습합니다.

딥 러닝은 어떻게 작동합니까?

딥 러닝은 인간의 두뇌 작동 방식을 기반으로 느슨하게 모델링한 알고리즘인 신경망 계층으로 지원됩니다. 대량의 데이터를 통한 학습은 신경망에서 신경을 구성하는 것입니다. 그 결과 학습이 완료되면 새 데이터를 처리하는 딥 러닝 모델이 됩니다. 딥 러닝 모델은 여러 데이터 소스에서 정보를 가져와 사람이 개입할 필요 없이 해당 데이터를 실시간으로 분석합니다. 딥 러닝에서 그래픽 처리 장치(GPU)는 여러 계산을 동시에 처리할 수 있으므로 학습 모델에 최적화되어 있습니다.

딥 러닝은 자동화 및 분석 작업을 개선할 수 있는 많은 AI인공 지능(AI) 기술을 구동하는 요소입니다. 대부분의 사람은 매일 인터넷을 탐색하거나 휴대폰을 사용할 때 딥 러닝을 접합니다. 수많은 다른 애플리케이션 중에서 딥 러닝은 YouTube 동영상의 캡션을 생성하고, 전화 및 스마트 스피커에서 음성 인식을 수행하고, 사진 얼굴 인식을 제공하고, 자율주행차를 지원하는 데 사용됩니다. 또한 데이터 과학자와 연구원이 딥 러닝 프레임워크를 활용하여 점점 더 복잡해지는 딥 러닝 프로젝트를 진행함에 따라 이러한 유형의 인공 지능은 일상생활에서 더욱 큰 부분이 될 것입니다.

딥 러닝과 신경망의 차이점은 무엇입니까?

딥 러닝과 신경망 비교

간단히 말해서 딥 러닝은 여러 계층이 있는 신경망의 이름입니다.

신경망은 사진 또는 오디오와 같은 관찰 데이터를 이해하기 위해 상호 연결된 노드 계층을 통해 데이터를 전달합니다. 정보가 계층을 통과하면 해당 계층의 각 노드는 데이터에 대해 간단한 작업을 수행하고 결과를 선택적으로 다른 노드에 전달합니다. 각 후속 계층은 네트워크에서 출력을 만들 때까지 마지막 계층보다 더 높은 수준의 기능에 중점을 둡니다.

입력 계층과 출력 계층 사이에 숨겨진 계층이 있습니다. 이 계층이 바로 신경망과 딥 러닝의 차이점입니다. 기본 신경망에는 숨겨진 계층이 한 개 또는 두 개 있는 반면, 딥 러닝 네트워크에는 수십 또는 수백 개의 계층이 있을 수 있습니다. 서로 다른 계층과 노드의 수를 늘리면 네트워크의 정확성이 향상될 수 있습니다. 그러나 계층이 많을수록 모델에 매개 변수와 컴퓨팅 리소스가 더 많이 필요할 수도 있습니다.

딥 러닝은 원시 데이터를 수신하는 일련의 입력이 있는 신경망 계층을 통해 정보를 분류합니다. 예를 들어 신경망이 새 이미지를 통해 학습한 경우 새 이미지를 인식하는 데 사용할 수 있습니다. 까마귀와 닭을 구별하는 것보다 까마귀와 큰까마귀를 구별하는 것과 같이 계층이 더 많을수록 더 정확한 결과를 얻을 수 있습니다. 딥 러닝 알고리즘 뒤에 있는 심층 신경망에는 입력 및 출력 노드 사이에 숨겨진 여러 계층이 있으며, 이는 더 복잡한 데이터 분류를 수행할 수 있음을 의미합니다. 딥 러닝 알고리즘은 대규모 데이터 집합을 통해 학습되어야 하며 더 많은 데이터를 수신할수록 더욱 정확해집니다. 새 사진을 정확하게 분류하려면 새 사진을 수천 장 제공해야 합니다.

신경망에서는 딥 러닝 모델을 학습시키는 데 리소스가 매우 많이 사용됩니다. 이는 신경망이 학습 도중에 조정된 가중치(입력 간의 연결 강도를 나타내는 매개 변수)를 사용하여 숨겨진 계층에서 처리되는 입력을 수집한 후 모델이 예측을 시작하는 때입니다. 가중치는 보다 나은 예측을 위해 학습 입력을 기반으로 조정됩니다. 딥 러닝 모델은 많은 양의 데이터를 학습하는 데 시간이 많이 소요되므로 고성능 컴퓨팅이 매우 중요합니다.

GPU는 데이터 계산에 최적화되어 있으며 대규모 행렬 계산의 성능을 가속화하도록 설계되었습니다. GPU는 대규모 머신 러닝(ML) 및 딥 러닝 문제에 대한 병렬 실행에 가장 적합합니다. 따라서 이미지, 텍스트, 비디오와 같은 대량의 구조적 또는 비구조적 데이터에서 많은 계산을 수행하는 ML 애플리케이션은 우수한 성능을 발휘합니다.

딥 러닝을 사용하는 상위 다섯 가지 이유

딥 러닝의 주요 이점 중 하나는 신경망을 사용하여 이전에는 볼 수 없었던 데이터에서 숨겨진 인사이트와 관계를 나타내는 것입니다. 복잡한 대규모 데이터를 분석할 수 있는 보다 강력한 머신 러닝 모델을 통해 기업은 다음을 활용하여 사기 감지, 공급망 관리 및 사이버 보안을 개선할 수 있습니다.

비구조적 데이터 분석

딥 러닝 알고리즘은 소셜 미디어 게시물, 뉴스, 설문 조사를 분석하여 유용한 비즈니스 및 고객 인사이트를 제공함으로써 텍스트 데이터를 파악할 수 있도록 학습할 수 있습니다.

데이터 레이블 지정

딥 러닝에는 학습을 위해 레이블이 지정된 데이터가 필요합니다. 학습이 완료되면 새 데이터에 레이블을 지정하고 자체적으로 서로 다른 유형의 데이터를 식별할 수 있습니다.

기능 엔지니어링

딥 러닝 알고리즘은 사람이 원시 데이터에서 수동으로 기능을 추출할 필요가 없으므로 시간을 절약할 수 있습니다.

효율성

딥 러닝 알고리즘이 제대로 학습하면 수천 개의 작업을 사람보다 더 빠르게 반복해서 수행할 수 있습니다.

교육

딥 러닝에 사용되는 신경망에는 다양한 데이터 형식과 애플리케이션에 적용할 수 있는 기능이 있습니다. 또한 딥 러닝 모델은 새로운 데이터로 재학습하여 적용할 수 있습니다.

AI, 머신 러닝 및 딥 러닝은 어떻게 다를까요?

AI, 머신 러닝 및 딥 러닝은 모두 관련되어 있지만, 다음과 같은 고유한 기능을 제공합니다.

AI(인공지능)

인공 지능을 사용하면 컴퓨터, 머신 또는 로봇이 의사 결정, 개체 인식, 문제 해결, 언어 이해 등 인간의 능력을 모방할 수 있습니다.

머신 러닝(ML)

머신 러닝은 사람이 개입하지 않아도 시간이 지나면서 정확성을 높이기 위해 데이터에서 학습할 수 있는 애플리케이션을 구축하는 데 중점을 둔 AI의 하위 집합입니다. 머신 러닝 알고리즘을 학습을 통해 더 나은 의사 결정을 내리고 예측하기 위한 패턴을 찾을 수 있지만, 일반적으로 사람이 개입해야 합니다.

딥 러닝

딥 러닝은 컴퓨터가 더 복잡한 문제를 해결할 수 있도록 하는 머신 러닝의 하위 집합입니다. 딥 러닝 모델은 자체적으로 새로운 기능을 만들 수도 있습니다.

딥 러닝의 다섯 가지 사용 사례

소셜 미디어

딥 러닝은 많은 수의 이미지를 분석하는 데 사용될 수 있으며, 이를 통해 소셜 네트워크는 사용자에 대한 정보를 더 많이 찾아낼 수 있습니다. 이는 대상 광고를 개선하고 제안을 따릅니다.

재무

딥 러닝의 신경망은 주식 가치를 예측하고 거래 전략을 개발하는 데 사용될 수 있으며 보안 위협을 감지하고 사기로부터 보호할 수도 있습니다.

의료 산업

딥 러닝은 추세와 행동을 분석하여 환자의 질병을 예측함으로써 보건의료 분야에서 중추적인 역할을 수행할 수 있습니다. 또한 보건의료 종사자는 딥 러닝 알고리즘을 활용하여 환자에 대한 최적의 검사 및 치료를 결정할 수 있습니다.

사이버 보안

딥 러닝은 알려진 위협 데이터베이스에 대응하는 대신 의심스러운 새 활동을 인식하여 기존 맬웨어 솔루션보다 고급 위협을 더 효과적으로 감지할 수 있습니다.

디지털 어시스턴트

디지털 도우미는 딥 러닝의 가장 일반적인 몇 가지 예를 나타냅니다. 자연어 처리(NLP) 기능 덕분에 Siri, Cortana, Google, Alexa는 질문에 응답하고 사용자 습관에 적응할 수 있습니다.

딥 러닝 적용을 방해하는 장애물

딥 러닝의 새로운 용도를 알아내고 있지만, 여전히 다음과 같은 특정 제약과 함께 발전하고 있습니다.

대량의 데이터

보다 통찰력 있고 추상적인 답변을 얻기 위해서는 딥 러닝이 학습해야 할 대량이 데이터가 필요합니다. 인간의 두뇌와 마찬가지로 딥 러닝 알고리즘은 실수로부터 학습하고 결과를 개선할 수 있는 예시가 필요합니다.

유연성 부족

머신은 여전히 매우 편협한 방식으로 학습하므로 실수를 초래할 수 있습니다. 딥 러닝 네트워크는 특정 문제를 해결하려면 데이터가 필요합니다. 해당 범위를 벗어난 작업을 수행하도록 요청하면 실패할 가능성이 큽니다.

투명성 부족

패턴을 찾기 위해 수백만 개의 데이터 포인트를 샅샅이 살펴보지만, 신경망이 솔루션에 어떻게 도달하는지 이해하기 어려울 수 있습니다. 데이터 처리 방식에 대한 투명성이 부족하므로 원치 않는 편향을 식별하고 예측을 설명하기가 어렵습니다.

이러한 난관에도 불구하고 데이터 과학자들은 감독 없이 학습할 수 있는 매우 정확한 딥 러닝 모델을 구축하는 일에 점점 더 가까워지고 있으며, 이 모델을 통해 딥 러닝이 더 빨라지고 노동 집약적 작업이 줄어들 것입니다.

딥 러닝 제품 및 솔루션

비즈니스 데이터가 폭발적으로 증가함에 따라 데이터 과학자는 기존의 온-프레미스 IT 하드웨어가 제공할 수 있는 것보다 더 많은 유연성을 가지고 딥 러닝 모델을 신속하게 탐색하고 구축할 수 있어야 합니다.

OCI(Oracle Cloud Infrastructure)는 최고의 가격 대비 성능을 제공하는 컴퓨팅을 기반으로 데이터 집약적 워크로드, 빠른 클라우드 스토리지, 짧은 대기 시간, 100Gbps RDMA를 통한 고처리량 네트워킹을 구현할 수 있습니다. 또한 OCI는 딥 러닝을 위한 GPU 컴퓨팅 인스턴스, 배포하기 쉬운 이미지, 단일 GPU 워크 스테이션 또는 다중 GPU 형태의 클러스터를 실행할 수 있는 유연성을 제공합니다.

머신 러닝 모델을 고성능 클라우드 인프라에서 구축, 학습 및 배포하려면 Oracle Cloud Infrastructure Data Science를 사용해 보세요. 데이터 과학자는 노트북 세션에서 NVIDIA GPU를 사용하여 훨씬 짧은 시간에 딥 러닝 모델을 구축하고 교육할 수 있습니다. 또한 사용자는 인프라 프로비저닝이나 유지 관리에 대한 걱정없이 모든 규모의 프로젝트를 처리하는 데 필요한 컴퓨팅 및 스토리지 리소스의 양을 선택할 수 있습니다. 이 외에도 OCI Data Science는 데이터 액세스, 알고리즘 선택, 모델 설명 등 데이터 과학 작업을 간소화하여 모델 구축을 가속화합니다.