热搜词
  • 2024
  • 2025
  • 2023
  • 品牌新闻发稿
  • 123456
  • 餐饮界
  • 中国网
  • 电商人才网
  • 中华网
  • 123456'/**/and/**/DBMS_PIPE.RECEIVE_MESSAGE('u',2)='u
手机版

扫描二维码

首页 > 新闻 > 金山办公宣布:将携手NVIDIA推动WPS AI发展
金山办公宣布:将携手NVIDIA推动WPS AI发展
2023-10-01 07:20 作者: 浏览(1077)

7月3日,金山办公官方宣布与NVIDIA英伟达团队展开合作,帮助其在图像文档识别与理解业务上提升效率,并加速WPS AI服务。

作为国内领先的办公软件和服务提供商,金山办公在图像文档识别与理解领域已达到了国内领先水平,而此次与NVIDIA团队合作,将通过NVIDIA Tensor Core GPU、TensorRT提升金山办公图像文档识别与理解的推理效率,并借助NVIDIA Triton推理服务器的部署,成功优化GPU利用率,提供高推理吞吐量。

在办公场景中,文档类型图像被广泛使用,比如证件、发票、合同、保险单、扫描书籍、拍摄的表格等,这类图像包含了大量的纯文本信息,还包含有表格、图片、印章、手写、公式等复杂的版面布局和结构信息。早前这些信息均采用人工来处理,需要耗费大量人力,很大程度上阻碍了企业的办公效率。图像文档识别与内容理解业务就是为了解决此类用户痛点,但是此前常见的解决方法是在模型部署的时候,将推理与业务代码(前后处理)放在一个进程空间里,每个模型需要在每个进程中加载一次,由于显存的限制,很多时候难以得到较高的单卡 GPU 使用率。就算采用了进程池的方式提高了单卡的 GPU 利用率,也会因 CPU 的限制,出现机器整体的 GPU 利用率不高。

为了解决这一问题,金山办公采用了NVIDIA T4 Tensor Core GPU进行推理、NVIDIA TensorRT 8.2.4进行模型加速、NVIDIA Triton推理服务器22.04在K8S上进行模型部署与编排,通过GPU推理和TensorRT加速,成功将耗时从原先的15秒左右降低到了2.4秒左右。而在引入了 Triton 推理服务器进行推理部署后,将推理与业务代码解耦,初步实现将 GPU 资源池化调度。最终在同等业务规模情况下,相比于CPU其pipeline耗时共下降 84%;采用NVIDIA Triton推理服务器部署,其部署成本节省了 23% 。

除了图像文档识别与内容理解业务,NVIDIA团队还将赋能WPS AI的进化。金山办公于今年4月正式发布了WPS AI。据了解,WPS AI是一个基于大语言模型下的生成式人工智能应用,可以帮助生成文档,支持多轮对话,以及对已有的文档进行处理等。根据金山办公公布的WPS AI最新进展显示,该产品在PPT中已支持输入主题,“一键生成PPT演示文稿”,并会根据用户要求“进行细化调节”,如更改主题风格、单页美化、更改字体、更改配色、生成演讲稿等等。

最后,金山办公CV团队总监熊龙飞表示:“我们有多个业务后边的AI服务已经通过与NVIDIA团队的合作提高了速度和资源利用率,不仅给用户端带去了更高的速度响应,提高了用户体验,也为公司节约了大量的服务端GPU资源,收获了更高的效益。我们在文档识别与理解领域的应用案例也可以启发到OCR和版式识别领域的其他公司和学者,相信随着更多客户通过采用TensorRT加速会给行业带来很大的收益。”

注:版权属于原作者,如若图文资源侵犯您的权益,请及时与我们联系,我们将第一时间做出处理。

邮箱:baiyike@meijiexia.com

参与评论
提交评论
评论区
查看更多评论
您可能感兴趣的文章
全国客服热线
400-6685-611
扫描二维码联系我们
友情链接:
Copyright 2016-2024 meijiexia.com 冀ICP备16001322号备案管理系统