트웰브랩스(Twelve Labs)가 오는 12월 개최되는 AI 학술대회 ‘신경정보처리시스템학회(NeurIPS 2024)’에서 영상 언어 모델 워크숍을 주최한다고 20일 밝혔다.
트웰브랩스는 이번 학회에서 영상-언어 모델 워크숍(Workshop on Video-Language Models)을 주최한다. 영상-언어 모델은 전 세계에 존재하는 방대한 양의 영상 데이터를 효과적으로 처리 및 활용 가능해 영상 검색, 콘텐츠 제작, 보안감시 및 로봇공학까지 전 산업 분야에 적용 가능하다. 워크숍에서는 ▲텍스트 및 이미지 데이터에 비해 부족한 영상 데이터, ▲방대한 분량의 영상 데이터 처리 방법, ▲시각, 음성, 시간, 텍스트 등 다양한 데이터가 혼재되어 있는 영상 데이터의 특성을 반영한 정교한 모델 설계, ▲영상-언어 모델 평가 및 비교 등 다양한 논의가 오갈 예정이다.
뉴립스에서 영상-언어 모델워크숍이 개최되는 것은 이번이 처음으로, 이는 대규모언어모델(LLM, Large Language Model)에서 영상언어모델(VideoLM, Video Language Model)로의 패러다임 전환을 의미한다. 이번 워크숍에 트웰브랩스 이승준 최고기술책임자는 네이버AI랩, 마이크로소프트, 애플, AI2 등과 함께 워크숍 주최자로 참가하며, Dima Damen(디나 데이먼) 구글 딥마인드 시니어 리서치 사이언티스트, Kirsten Grauman(커스틴 그라우만) UT Austin(텍사스 대학교 오스틴) 컴퓨터 공학 교수, Ishan Misra(이샨 미스라) 메타 영상생성 리드 등 주요 석학들이 연사로 참가한다.
트웰브랩스 이재성 대표는 “세계 최고 권위 학회인 뉴립스에서 영상-언어 모델 워크숍을 주최하게 된 것은 트웰브랩스의 기술력과 비전이 글로벌 AI 커뮤니티에서 인정받았다는 의미”라며 “트웰브랩스는 이번 워크숍에서 전 세계 최고의 AI 연구자들과 영상 AI 기술의 현재와 미래를 조망하고 본격적인 멀티모달 인텔리전스 시대를 열어갈 것”이라고 말했다.
- 관련 기사 더보기
You must be logged in to post a comment.