베슬에이아이, ‘GTC 2025’ 참가

AI 통합 플랫폼 기업 베슬AI(VESSL AI)는 21일, 미국 캘리포니아주 새너제이에서 열린 AI 콘퍼런스인 ‘GTC(GPU Technology Conference) 2025’에 참가했다고 밝혔다.

이번 행사에는 엔비디아가 주최하고, 아마존, 구글, 마이크로소프트 등 300여 개 글로벌 기업이 참여해 최신 AI 기술과 제품을 선보였으며, 10만 명 이상의 참가자가 모였다.

베슬AI는 이번 GTC에서 엔비디아의 NIM(NVIDIA Microservice Infrastructure) 및 네모(NeMo) 기술 통합 사례를 발표했다. 이 통합을 통해 AI 개발자들은 Llama 3.1을 포함한 다양한 LLM(대형 언어 모델) 모델을 쉽게 배포하고, 네모 큐레이터의 데이터 관리 기능을 효율적으로 활용할 수 있게 됐다. 베슬AI는 MLOps와 LLMOps 기술을 기반으로 기업들이 AI 모델 학습과 운영 과정에서 직면하는 인프라 관리 및 리소스 최적화 문제를 해결하는 솔루션을 제공할 것으로 평가됐다.

베슬AI는 또한 GPU 컴퓨팅 비용을 최대 80% 절감하고, AI 모델 배포 시간을 몇 주에서 수 분으로 단축한 다양한 산업군 사례를 소개했다. 특히 금융, 제조, 모빌리티 분야에서 AI 모델의 효율성을 높인 사례를 선보였으며, 기업용 AI 상담 시스템 RAG 기술과 오케스트레이션 에이전트를 적용해 서비스 처리 속도를 20% 향상시키고 응대 품질을 개선한 성과도 발표됐다.

기술 발표 외에도, 베슬AI는 GTC 기간 동안 여러 전략적 네트워킹 활동을 통해 글로벌 입지를 확장했다. 특히, 미국 사업 개발을 이끄는 오예슬 총괄은 ‘차세대 혁신: 미래 기술을 이끄는 스타트업들’이라는 주제의 패널 토론에 참여했다. 이 세션에서는 글로벌 스타트업 창업자들과 함께 시장 진출 전략과 현지 파트너십 구축, 문화적·운영적 도전 과제에 대해 논의했으며, 베슬AI의 실리콘밸리 AI 생태계 경험이 큰 주목을 받았다.

또한, 행사 2일 차에는 베슬AI가 시라스케일(Cirrascale), 레코그니(Recogni) 등 AI 인프라 기업들과 네트워킹 리셉션을 공동 주최했다. 이 자리에서 시라스케일의 고성능 클라우드 컴퓨팅 서비스와 레코그니의 저전력·고성능 AI 추론 칩, 베슬AI의 MLOps 플랫폼이 결합되어 AI 인프라 전반을 아우르는 기술 혁신과 협업 기회를 모색했다.

베슬AI는 이번 GTC 참가를 바탕으로 AI 오케스트레이션 구현을 가시화할 계획이다. AI 인프라와 애플리케이션을 연결하는 전문 역량을 바탕으로, AI 모델 개발부터 배포, 운영까지의 전 과정을 통합하는 플랫폼을 제공할 예정이다. 이를 통해 온프레미스와 클라우드 환경의 AI 자원을 통합 관리하고, 다양한 AI 모델의 협업을 지원하여 엔터프라이즈급 비즈니스 솔루션으로 발전시킬 방침이다.

안재만 대표는 “이번 GTC 참가를 통해 글로벌 AI 시장에서 베슬AI의 기술력을 알리는 중요한 계기가 되었다”며, “엔비디아와 협업을 통해 다양한 AI 모델을 체계적으로 통합하고 관리하는 오케스트레이션 솔루션을 제공하여 산업별 맞춤형 AI 시스템 구축을 가속화하고, 기업의 디지털 혁신을 앞당기겠다”고 밝혔다.

 


  • 관련 기사 더보기

Vessel AI participates in 'GTC 2025'

AI integrated platform company VESSL AI announced on the 21st that it participated in the 'GTC (GPU Technology Conference) 2025', an AI conference held in San Jose, California, USA.

Hosted by NVIDIA, this event was attended by over 300 global companies including Amazon, Google, and Microsoft, showcasing the latest AI technologies and products, and was attended by over 100,000 people.

At this GTC, Vessel AI presented a case study on the integration of NVIDIA’s NIM (NVIDIA Microservice Infrastructure) and NeMo technologies. Through this integration, AI developers can easily deploy various LLM (Large Language Model) models including Llama 3.1 and efficiently utilize the data management function of NeMo Curator. Vessel AI is expected to provide a solution that solves the infrastructure management and resource optimization problems that companies face during AI model learning and operation based on MLOps and LLMOps technologies.

Vessel AI also introduced various industrial cases that reduced GPU computing costs by up to 80% and shortened AI model deployment time from weeks to minutes. In particular, it presented cases that improved the efficiency of AI models in the finance, manufacturing, and mobility sectors, and also announced results that improved service processing speed by 20% and improved response quality by applying RAG technology and orchestration agents for corporate AI consulting systems.

In addition to the technology presentation, Vessel AI expanded its global presence through several strategic networking activities during GTC. In particular, Oh Ye-seul, who leads US business development, participated in a panel discussion titled “Next Generation Innovation: Startups Leading Future Technologies.” In this session, global startup founders discussed market entry strategies, building local partnerships, and cultural and operational challenges, and Vessel AI’s experience in the Silicon Valley AI ecosystem received much attention.

Also, on the second day of the event, Vessel AI co-hosted a networking reception with AI infrastructure companies such as Cirrascale and Recogni. At this event, Cirrascale’s high-performance cloud computing services, Recogni’s low-power and high-performance AI inference chips, and Vessel AI’s MLOps platform were combined to explore technological innovations and collaboration opportunities covering the entire AI infrastructure.

Based on its participation in this GTC, Vessel AI plans to visualize the implementation of AI orchestration. Based on its expertise in connecting AI infrastructure and applications, it plans to provide a platform that integrates the entire process from AI model development to deployment and operation. Through this, it plans to integrate AI resources in on-premise and cloud environments, support collaboration of various AI models, and develop it into an enterprise-level business solution.

CEO Ahn Jae-man said, “Participating in this GTC has become an important opportunity to publicize Vessel AI’s technological prowess in the global AI market,” and “Through collaboration with NVIDIA, we will provide an orchestration solution that systematically integrates and manages various AI models, accelerate the construction of customized AI systems for each industry, and advance the digital innovation of companies.”


  • See more related articles

ベッスルエイアイ、「GTC 2025」に参加

AI統合プラットフォーム企業ベッスルAI(VESSL AI)は21日、米国カリフォルニア州サナジェイで開かれたAIカンファレンス「GTC(GPU Technology Conference)2025」に参加したと明らかにした。

今回のイベントにはNVIDIAが主催し、Amazon、Google、Microsoftなど300社以上のグローバル企業が参加し、最新のAI技術と製品を披露し、10万人以上の参加者が集まった。

ベッスルAIは今回のGTCでNVIDIAのNIM(NVIDIA Microservice Infrastructure)とネモ(NeMo)技術統合事例を発表した。この統合により、AI開発者はLlama 3.1を含むさまざまなLLM(大型言語モデル)モデルを簡単に展開し、ネモキュレータのデータ管理機能を効率的に活用することができました。ベッスルAIは、MLOpsとLLMOps技術に基づいて、企業がAIモデルの学習と運用過程で直面するインフラ管理とリソース最適化の問題を解決するソリューションを提供すると評価された。

ベッスルAIはまた、GPUコンピューティングコストを最大80%削減し、AIモデルの配布時間を数週間から数分に短縮した様々な産業群の事例を紹介した。特に金融、製造、モビリティ分野でAIモデルの効率性を高めた事例を披露し、企業向けAI相談システムRAG技術とオーケストレーションエージェントを適用してサービス処理速度を20%向上させ、応対品質を改善した成果も発表された。

技術発表に加えて、ベッスルAIは、GTC期間中にいくつかの戦略的ネットワーキング活動を通じてグローバルな立場を拡大しました。特に、米国事業開発をリードするオイェスル総括は「次世代イノベーション:未来技術をリードするスタートアップたち」というテーマのパネル討論に参加した。このセッションでは、グローバルスタートアップの創業者たちと共に市場進出戦略と現地パートナーシップ構築、文化的・運営的挑戦課題について議論し、ベッスルAIのシリコンバレーAIエコシステム経験が大きな注目を集めた。

また、イベント2日目には、ベッスルAIがシラスケール(Cirrascale)、レコグニ(Recogni)などAIインフラ企業とネットワーキングレセプションを共同主催した。この場でシラスケールの高性能クラウドコンピューティングサービスとレコグニーの低電力・高性能AI推論チップ、ベッスルAIのMLOpsプラットフォームが結合され、AIインフラ全体を網羅する技術革新とコラボレーション機会を模索した。

ベッスルAIは今回のGTC参加を元にAIオーケストレーションの実装を可視化する計画だ。 AIインフラとアプリケーションを結ぶ専門能力をもとに、AIモデルの開発から展開、運用までの全過程を統合するプラットフォームを提供する予定だ。これにより、オンプレミスとクラウド環境のAIリソースを統合管理し、様々なAIモデルのコラボレーションを支援し、エンタープライズクラスのビジネスソリューションに発展させる方針だ。

アン・ジェマン代表は「今回のGTC参加を通じてグローバルAI市場でベッスルAIの技術力を知らせる重要なきっかけとなった」とし、「NVIDIAとコラボレーションを通じて多様なAIモデルを体系的に統合して管理するオーケストレーションソリューションを提供し、産業別にカスタマイズされたAIシステム構築を加速し、企業のデジタル革新を進める」と明らかにした。


  • 関連記事をもっと見る

Vessel AI 参加“GTC 2025”

AI综合平台企业VESSL AI21日宣布,参加在美国加利福尼亚州圣何塞举办的AI会议“GTC(GPU技术大会)2025”。

此次活动由NVIDIA主办,有亚马逊、谷歌、微软等超过300家全球企业参展,展示最新的AI技术和产品,参与人数超过10万人。

在今年的GTC上,Vessel AI展示了NVIDIA的NIM(NVIDIA微服务基础架构)与NeMo技术融合的案例研究。通过这种集成,AI开发人员能够轻松部署包括Llama 3.1在内的各种LLM(大型语言模型)模型,并有效利用Nemo Curator的数据管理功能。 Vessel AI有望基于MLOps和LLMOps技术,提供解决企业在AI模型学习和运行过程中面临的基础设施管理和资源优化问题的解决方案。

Vessel AI还展示了多种行业案例,其中GPU计算成本降低高达80%,AI模型部署时间从几周缩短到几分钟。具体介绍了在金融、制造、移动出行等领域提高AI模型效率的案例,并公布了通过应用RAG技术和企业AI咨询系统编排代理等将服务处理速度提高20%、改善响应质量的成果。

除了技术公告外,VesselAI 还通过 GTC 期间的多项战略网络活动扩大了其全球影响力。特别是,负责美国业务开发的吴艺瑟参加了题为“下一代创新:引领未来技术的初创企业”的小组讨论。会议讨论了市场进入策略、建立本地合作伙伴关系以及与全球初创企业创始人面临的文化和运营挑战,Vessel AI 在硅谷人工智能生态系统中的经验受到了广泛关注。

此外,活动第二天,Vessel AI 与 Cirrascale、Recogni 等人工智能基础设施公司共同举办了社交招待会。本次会场结合Sirascal的高性能云计算服务、Recogni的低功耗高性能AI推理芯片以及Vessel AI的MLOps平台,探索覆盖整个AI基础设施的技术创新与合作机会。

基于本次GTC的参与,Vessel AI计划将AI编排的实现进行可视化。基于我们在连接AI基础设施和应用程序方面的专业知识,我们计划提供一个集成从AI模型开发到部署和运行的整个流程的平台。通过此,我们计划整合和管理本地和云端环境中的AI资源,支持各种AI模型的协作,并将其发展为企业级的业务解决方案。

安在万代表表示:“参加本次GTC成为在全球AI市场宣传Vessel AI技术实力的重要机会”,“通过与NVIDIA的合作,我们将提供系统地集成和管理各种AI模型的编排解决方案,加速构建针对各行业的定制化AI系统,推动企业的数字化创新。”


  • 查看更多相关文章

Vessel AI participe au « GTC 2025 »

La société de plate-forme intégrée d'IA VESSL AI a annoncé le 21 qu'elle participait à la « GTC (GPU Technology Conference) 2025 », une conférence sur l'IA qui s'est tenue à San Jose, en Californie, aux États-Unis.

Organisé par NVIDIA, cet événement a réuni plus de 300 entreprises mondiales, dont Amazon, Google et Microsoft, présentant les dernières technologies et produits d'IA, et a réuni plus de 100 000 personnes.

Lors du GTC de cette année, Vessel AI a présenté une étude de cas sur l'intégration des technologies NIM (NVIDIA Microservice Infrastructure) et NeMo de NVIDIA. Cette intégration permet aux développeurs d'IA de déployer facilement divers modèles LLM (Large Language Model), y compris Llama 3.1, et d'utiliser efficacement les capacités de gestion des données de Nemo Curator. Vessel AI devrait fournir une solution qui résout les problèmes de gestion des infrastructures et d'optimisation des ressources auxquels les entreprises sont confrontées lors de l'apprentissage et de l'exploitation des modèles d'IA basés sur les technologies MLOps et LLMOps.

Vessel AI a également présenté une variété de cas industriels où les coûts de calcul GPU ont été réduits jusqu'à 80 % et le temps de déploiement du modèle d'IA a été raccourci de plusieurs semaines à quelques minutes. En particulier, il a présenté des cas d'amélioration de l'efficacité des modèles d'IA dans les domaines de la finance, de la fabrication et de la mobilité, et a également annoncé les résultats de l'augmentation de la vitesse de traitement des services de 20 % et de l'amélioration de la qualité de la réponse en appliquant la technologie RAG et les agents d'orchestration, un système de conseil en IA pour les entreprises.

En plus de ses annonces technologiques, VesselAI a étendu sa présence mondiale grâce à plusieurs activités de réseautage stratégique pendant la GTC. En particulier, Oh Ye-seul, qui dirige le développement commercial aux États-Unis, a participé à une table ronde intitulée « Innovation de nouvelle génération : les startups à la tête des technologies du futur ». La session a porté sur les stratégies d’entrée sur le marché, la création de partenariats locaux et les défis culturels et opérationnels avec les fondateurs de startups mondiales, et l’expérience de Vessel AI dans l’écosystème de l’IA de la Silicon Valley a reçu une attention particulière.

De plus, le deuxième jour de l'événement, Vessel AI a co-organisé une réception de réseautage avec des sociétés d'infrastructure d'IA telles que Cirrascale et Recogni. Dans ce lieu, le service de cloud computing haute performance de Sirascal, la puce d'inférence IA basse consommation et haute performance de Recogni et la plateforme MLOps de Vessel AI ont été combinés pour explorer l'innovation technologique et les opportunités de collaboration couvrant l'ensemble de l'infrastructure de l'IA.

Sur la base de sa participation à ce GTC, Vessel AI prévoit de visualiser la mise en œuvre de l'orchestration de l'IA. Forts de notre expertise en matière de connexion d’infrastructures et d’applications d’IA, nous prévoyons de fournir une plateforme qui intègre l’ensemble du processus, du développement du modèle d’IA au déploiement et à l’exploitation. Grâce à cela, nous prévoyons d’intégrer et de gérer les ressources d’IA dans des environnements sur site et dans le cloud, de soutenir la collaboration de divers modèles d’IA et de les développer en une solution commerciale au niveau de l’entreprise.

Le PDG Ahn Jae-man a déclaré : « Participer à ce GTC est devenu une opportunité importante de faire connaître les prouesses technologiques de Vessel AI sur le marché mondial de l'IA » et « Grâce à la collaboration avec NVIDIA, nous fournirons une solution d'orchestration qui intègre et gère systématiquement divers modèles d'IA, accélère la construction de systèmes d'IA personnalisés pour chaque secteur et fait progresser l'innovation numérique des entreprises. »


  • Voir plus d'articles connexes
%d bloggers like this: