10.24
주요뉴스
뉴스홈 > 비즈니스IT
매스웍스, ‘매트랩’ 및 ‘시뮬링크’ 릴리스 2018b 발표딥러닝 프레임워크와의 상호 운용성 확보 등 딥러닝 관련 기능 강화

   
 
[아이티데일리] 매스웍스가 19일 자사 ‘매트랩(MATLAB)’ 및 ‘시뮬링크(Simulink)’의 릴리스 2018b(이하 R2018b)를 발표했다.

이번 릴리스에는 제품군 전체에 걸쳐 딥러닝에 대한 업데이트 및 버그 수정이 포함됐다. 뉴럴 네트워크 툴박스(Neural Network Toolbox)를 대체하는 신규 딥러닝 툴박스(Deep Learning Toolbox)는 딥뉴럴 네트워크를 설계하고 구현하기 위한 프레임워크를 제공한다. 영상 처리, 컴퓨터 비전, 신호 처리 및 시스템 관련 엔지니어는 ‘매트랩’을 통해 복잡한 네트워크 아키텍처를 설계하고 모델 성능을 향상시킬 수 있다.

딥 네트워크 디자이너(Deep Network Designer)는 사용자가 복잡한 네트워크 아키텍처를 만들거나, 전이 학습을 위해 미리 학습된 복잡한 네트워크를 수정할 수 있도록 지원한다. 엔비디아 GPU 클라우드의 ‘매트랩 딥 러닝 컨테이너(Deep Learning Container)’, AWS와 MS애저(Microsoft Azure)용 ‘매트랩 참조 아키텍처’를 통해 클라우드 공급업체 또한 지원한다.

아울러 매스웍스는 ‘매트랩’ 사용자와 다른 딥러닝 프레임워크 간의 협업이 가능하도록 ONNX 커뮤니티와 협력하고 있다. 엔지니어는 R2018b의 신규 ONNX 변환기를 사용해 파이토치(PyTorch)나 텐서플로(TensorFlow)와 같은 지원 프레임워크에서 모델을 가져오고 내보낼 수 있다. 또한 R2018b는 한 줄의 코드로 액세스할 수 있는 선별된 참조 모델 세트를 제공하며, 추가 모델 임포터는 카페(Caffe)와 케라스-텐서플로(Keras-Tensorflow) 모델도 사용할 수 있다.

R2018b의 GPU코더(GPU Coder)는 엔비디아 라이브러리를 지원하고 자동 튜닝, 레이어 융합 및 버퍼 최소화와 같은 최적화 기능을 추가해 추론 성능을 향상시켰다. 또한 인텔 MKL-DNN 및 ARM 컴퓨트 라이브러리(Compute Library)를 사용해 인텔과 ARM 플랫폼에 대한 배포 지원을 추가했다.

데이비드 리치(David Rich) 매스웍스 매트랩마케팅디렉터는 “여러 산업 분야에 딥러닝이 널리 보급됨에 따라 다양한 전문 분야의 엔지니어와 과학자는 이를 폭넓게 사용, 액세스 및 적용할 수 있어야 한다”며, “이제는 딥러닝 초보자와 전문가가 연구에서 프로토타입과 제작에 이르기까지 통합된 딥러닝 워크플로를 사용해 ‘매트랩’으로 고급 연구를 학습, 적용 및 수행할 수 있다”고 말했다.

인기기사 순위
여백
여백
(우)08503 서울특별시 금천구 가산디지털1로 181 (가산 W CENTER) 1713~1715호
TEL : 02-2039-6160  FAX : 02-2039-6163  사업자등록번호:106-86-40304
개인정보/청소년보호책임자:김선오  등록번호:서울 아 00418  등록일자:2007.08  발행인:김용석  편집인:김선오