AI 보안성 강화, 윤리적·도덕적 AI 알고리즘 구축이 선행돼야

 

AI가 높은 보안성을 갖추려면 먼저 기업은 AI 알고리즘이나 모델을 윤리적으로 구축해야 한다. 개발 과정이 윤리적이어야 활용도 윤리적으로 이뤄진다.

– 한국오라클 탐송 대표

지난 6월 28일 인터컨티넨탈 서울 코엑스에서 개최된 '클라우드 컴퓨팅 조찬 좌담회'에서는 정부와 기업이 생성 AI 생태계와 이슈 해결을 어떻게 준비하는지에 대하여 이야기 나누었다. 국내 클라우드 기업은 생성 AI를 활용해 어떤 서비스를 제공할 수 있는지 설명했고, 정부는 공공클라우드 전환 사업에 대한 계획을 밝혔다. 정부와 기업은 서로를 적극적으로 밀어줘야 국내 AI와 클라우드 산업을 한층 더 고도화할 수 있다는 점에 동의했다.

이 중, 한국오라클 탐송 대표는 보안에 대해 강조하며, 안정성 확보 위해 윤리적·도덕적 AI 알고리즘 구축이 반드시 필요하다고 짚었다. AI는 적극 활용하되, 정부가 적절히 규제해야 한다는 것이다.

아래는 좌담회에서 밝힌 안전한 AI 탄생에 대한 오라클의 철학과 윤리 원칙에 대한 견해이다.

오라클의 AI 윤리 가이드라인

현재 많은 기업은 데이터 보안 문제로 챗GPT를 활용을 주저한다. AI가 높은 보안성을 갖추려면 먼저 기업은 AI 알고리즘이나 모델을 윤리적으로 구축해야 한다. 개발 과정이 윤리적이어야 활용도 윤리적으로 이뤄진다.

오라클은 알고리즘 편향이 일어나지 않는 개발 프레임워크를 구축했다. AI에 들어가는 알고리즘이 투명하고 설명 가능해야 한다는 것은 AI유저들에게는 당연한 원칙일 수 있겠으나, 개발자에게는 어려운 요구사항이다. AI가 의료나 국방, 범죄 등에 활용될 경우 특히 그러하다. 이 외에 AI에 대한 자율성, 책임감 있는 AI 등도 필수 요소다. AI 알고리즘 제작 과정에 이러한 윤리성을 지켜야 최종적으로 안전한 AI가 탄생하는 것이다.

오라클은 해당 사항이 반영된 AI를 만들고, 이를 오라클 애플리케이션에 접목했다. 애플리케이션에서 나온 데이터 결과를 하나씩 분석하고 결과에 대한 이유를 도출할 사람 대신, 이제는 AI가 그 역할까지 대행한다. 무작정 결과만 제시하는 것이 아니라 객관적으로 분석하고 설명 가능성 기능을 통해 알려준다. AI에 윤리성이 굳이 필요한 이유가 여기에 또 있다.

지금 오라클 데이터베이스에도 AI가 들어가 있다. 더 빠르고 안전하게, 에러 없이 작동한다. 별도 튜닝도 필요 없다. 이게 AI의 힘이다.

AI에 대한 정부 규제의 필요성

AI에 대한 정부 규제도 어느 정도 필요하다고 본다. 미국과 중국도 AI 규제에 시동을 걸었다. 그렇지 않으면 AI에 대한 부정적인 영향이 더 커질 수 있어서다. 각 기업도 자사 프레임워크 안에서 계속 토론하면서 지켜볼 필요가 있다. 현재는 기술이 정책보다 훨씬 앞서있다. ‘좋은 AI’가 있으면 ‘나쁜 AI’도 분명히 존재할 수밖에 없다. AI는 굉장히 흥미롭지만, 한편으론 무서울 때가 있다.

생성 AI와 클라우드는 뗄 수 없는 사이다. 클라우드 없이 생성 AI 발전은 불가능하다. 오라클도 최근 생성 AI 덕분에 큰 성장을 보였다. 최근 코히어와 손잡고 생성 AI도 출시했다. 얼마 전 일론 머스크가 AI 알고리즘 발전을 6개월 동안 멈추자는 공개서한에 서명한 바 있다. 개인적으로 반대 입장이다. 기업들은 분기별로 어마어마한 실적 압박을 받는다. 무조건 수익을 올려야 한다. 클라우드 기업은 AI로 인해 생산성을 획기적으로 올릴 기회를 잡았다. 이 와중에 AI 발전을 멈추자는 건 어불성설이다.

    출처
  • 기사 원본: 김미정 기자, ZDNET Korea
  • 전체 기사는 ZDNET Korea의 이곳에서 확인하실 수 있습니다.