2022년 8월 20일
딥 러닝은 머신러닝(ML)의 하위 집합으로, 인간의 두뇌처럼 작동하도록 모델링된 알고리즘인 인공 신경망이 대량의 데이터에서 학습합니다.
딥 러닝은 인간의 두뇌 작동 방식을 기반으로 느슨하게 모델링한 알고리즘인 신경망 계층으로 지원됩니다. 대량의 데이터를 통한 학습은 신경망에서 신경을 구성하는 것입니다. 그 결과 학습이 완료되면 새 데이터를 처리하는 딥 러닝 모델이 됩니다. 딥 러닝 모델은 여러 데이터 소스에서 정보를 가져와 사람이 개입할 필요 없이 해당 데이터를 실시간으로 분석합니다. 딥 러닝에서 그래픽 처리 장치(GPU)는 여러 계산을 동시에 처리할 수 있으므로 학습 모델에 최적화되어 있습니다.
딥 러닝은 자동화 및 분석 작업을 개선할 수 있는 많은 AI인공 지능(AI) 기술을 구동하는 요소입니다. 대부분의 사람은 매일 인터넷을 탐색하거나 휴대폰을 사용할 때 딥 러닝을 접합니다. 수많은 다른 애플리케이션 중에서 딥 러닝은 YouTube 동영상의 캡션을 생성하고, 전화 및 스마트 스피커에서 음성 인식을 수행하고, 사진 얼굴 인식을 제공하고, 자율주행차를 지원하는 데 사용됩니다. 또한 데이터 과학자와 연구원이 딥 러닝 프레임워크를 활용하여 점점 더 복잡해지는 딥 러닝 프로젝트를 진행함에 따라 이러한 유형의 인공 지능은 일상생활에서 더욱 큰 부분이 될 것입니다.
간단히 말해서 딥 러닝은 여러 계층이 있는 신경망의 이름입니다.
신경망은 사진 또는 오디오와 같은 관찰 데이터를 이해하기 위해 상호 연결된 노드 계층을 통해 데이터를 전달합니다. 정보가 계층을 통과하면 해당 계층의 각 노드는 데이터에 대해 간단한 작업을 수행하고 결과를 선택적으로 다른 노드에 전달합니다. 각 후속 계층은 네트워크에서 출력을 만들 때까지 마지막 계층보다 더 높은 수준의 기능에 중점을 둡니다.
입력 계층과 출력 계층 사이에 숨겨진 계층이 있습니다. 이 계층이 바로 신경망과 딥 러닝의 차이점입니다. 기본 신경망에는 숨겨진 계층이 한 개 또는 두 개 있는 반면, 딥 러닝 네트워크에는 수십 또는 수백 개의 계층이 있을 수 있습니다. 서로 다른 계층과 노드의 수를 늘리면 네트워크의 정확성이 향상될 수 있습니다. 그러나 계층이 많을수록 모델에 매개 변수와 컴퓨팅 리소스가 더 많이 필요할 수도 있습니다.
딥 러닝은 원시 데이터를 수신하는 일련의 입력이 있는 신경망 계층을 통해 정보를 분류합니다. 예를 들어 신경망이 새 이미지를 통해 학습한 경우 새 이미지를 인식하는 데 사용할 수 있습니다. 까마귀와 닭을 구별하는 것보다 까마귀와 큰까마귀를 구별하는 것과 같이 계층이 더 많을수록 더 정확한 결과를 얻을 수 있습니다. 딥 러닝 알고리즘 뒤에 있는 심층 신경망에는 입력 및 출력 노드 사이에 숨겨진 여러 계층이 있으며, 이는 더 복잡한 데이터 분류를 수행할 수 있음을 의미합니다. 딥 러닝 알고리즘은 대규모 데이터 집합을 통해 학습되어야 하며 더 많은 데이터를 수신할수록 더욱 정확해집니다. 새 사진을 정확하게 분류하려면 새 사진을 수천 장 제공해야 합니다.
신경망에서는 딥 러닝 모델을 학습시키는 데 리소스가 매우 많이 사용됩니다. 이는 신경망이 학습 도중에 조정된 가중치(입력 간의 연결 강도를 나타내는 매개 변수)를 사용하여 숨겨진 계층에서 처리되는 입력을 수집한 후 모델이 예측을 시작하는 때입니다. 가중치는 보다 나은 예측을 위해 학습 입력을 기반으로 조정됩니다. 딥 러닝 모델은 많은 양의 데이터를 학습하는 데 시간이 많이 소요되므로 고성능 컴퓨팅이 매우 중요합니다.
GPU는 데이터 계산에 최적화되어 있으며 대규모 행렬 계산의 성능을 가속화하도록 설계되었습니다. GPU는 대규모 머신러닝(ML) 및 딥 러닝 문제에 대한 병렬 실행에 가장 적합합니다. 따라서 이미지, 텍스트, 비디오와 같은 대량의 구조적 또는 비구조적 데이터에서 많은 계산을 수행하는 ML 애플리케이션은 우수한 성능을 발휘합니다.
딥 러닝의 주요 이점 중 하나는 신경망을 사용하여 이전에는 볼 수 없었던 데이터에서 숨겨진 인사이트와 관계를 나타내는 것입니다. 복잡한 대규모 데이터를 분석할 수 있는 보다 강력한 머신러닝 모델을 통해 기업은 다음을 활용하여 사기 감지, 공급망 관리 및 사이버 보안을 개선할 수 있습니다.
AI, 머신러닝 및 딥 러닝은 모두 관련되어 있지만, 다음과 같은 고유한 기능을 제공합니다.
딥 러닝은 많은 수의 이미지를 분석하는 데 사용될 수 있으며, 이를 통해 소셜 네트워크는 사용자에 대한 정보를 더 많이 찾아낼 수 있습니다. 이는 대상 광고를 개선하고 제안을 따릅니다.
금융: 딥 러닝의 신경망을 사용하면 주식 가격을 예측하고 거래 전략을 개발할 수 있고, 보안 위협을 감지하고 사기를 예방할 수도 있습니다.
보건의료: 딥 러닝은 트렌드와 행동을 분석해 환자의 질병을 예측함으로써 보건의료 분야에서 중추적인 역할을 수행할 수 있습니다. 또한 보건의료 종사자는 딥 러닝 알고리즘을 활용하여 환자에 대한 최적의 검사 및 치료를 결정할 수 있습니다.
사이버 보안: 딥 러닝은 알려진 위협 데이터베이스를 기반으로 대응하는 대신 의심스러운 신규 활동을 인식해 기존 맬웨어 솔루션보다 고등급 위험을 더 효과적으로 감지할 수 있습니다.
디지털 어시스턴트: 디지털 어시스턴트는 딥 러닝의 가장 일반적인 사용 사례 중 하나입니다. 자연어 처리(NLP) 기능 덕분에 Siri, Cortana, Google, Alexa는 질문에 응답하고 사용자 습관에 적응할 수 있습니다.
딥 러닝의 새로운 용도를 알아내고 있지만, 여전히 다음과 같은 특정 제약과 함께 발전하고 있습니다.
비즈니스 데이터가 폭발적으로 증가함에 따라 데이터 과학자는 기존의 온-프레미스 IT 하드웨어가 제공할 수 있는 것보다 더 많은 유연성을 가지고 딥 러닝 모델을 신속하게 탐색하고 구축할 수 있어야 합니다.
OCI(Oracle Cloud Infrastructure)는 우수한 가격 대비 성능을 제공하는 컴퓨팅을 기반으로 데이터 집약적 워크로드, 빠른 클라우드 스토리지, 짧은 대기 시간, 100Gbps RDMA를 통한 고처리량 네트워킹을 구현할 수 있습니다. 또한 OCI는 딥 러닝을 위한 GPU 컴퓨팅 인스턴스, 배포하기 쉬운 이미지, 단일 GPU 워크 스테이션 또는 다중 GPU 형태의 클러스터를 실행할 수 있는 유연성을 제공합니다.
머신러닝 모델을 고성능 클라우드 인프라에서 구축, 학습 및 배포하려면 Oracle Cloud Infrastructure Data Science를 사용해 보세요. 데이터 과학자는 노트북 세션에서 NVIDIA GPU를 사용하여 훨씬 짧은 시간에 딥 러닝 모델을 구축하고 교육할 수 있습니다. 또한 사용자는 인프라 프로비저닝이나 유지 관리에 대한 걱정없이 모든 규모의 프로젝트를 처리하는 데 필요한 컴퓨팅 및 스토리지 리소스의 양을 선택할 수 있습니다. 이 외에도 OCI Data Science는 데이터 액세스, 알고리즘 선택, 모델 설명 등 데이터 과학 작업을 간소화하여 모델 구축을 가속화합니다.