Skip to content

Latest commit

 

History

History
97 lines (73 loc) · 5.64 KB

overview.md

File metadata and controls

97 lines (73 loc) · 5.64 KB

目录

1. 低代码全流程开发简介

飞桨低代码开发工具PaddleX,依托于PaddleSeg的先进技术,支持了图像分割领域的低代码全流程开发能力。通过低代码全流程开发,可实现简单且高效的模型使用、组合与定制。这将显著减少模型开发的时间消耗降低其开发难度,大大加快模型在行业中的应用和推广速度。特色如下:

  • 🎨 模型丰富一键调用:将通用语义分割和图像异常检测涉及的19个模型整合为2条模型产线,通过极简的Python API一键调用,快速体验模型效果。此外,同一套API,也支持图像分类、目标检测、文本图像智能分析、通用OCR、时序预测等共计200+模型,形成20+单功能模块,方便开发者进行模型组合使用

  • 🚀 提高效率降低门槛:提供基于统一命令图形界面两种方式,实现模型简洁高效的使用、组合与定制。支持高性能推理、服务化部署和端侧部署等多种部署方式。此外,对于各种主流硬件如英伟达GPU、昆仑芯、昇腾、寒武纪和海光等,进行模型开发时,都可以无缝切换

说明:PaddleX 致力于实现产线级别的模型训练、推理与部署。模型产线是指一系列预定义好的、针对特定AI任务的开发流程,其中包含能够独立完成某类任务的单模型(单功能模块)组合。

2. 图像分割相关能力支持

PaddleX中图像分割相关的2条产线均支持本地快速推理,部分产线支持在线体验,您可以快速体验各个产线的预训练模型效果,如果您对产线的预训练模型效果满意,可以直接对产线进行高性能推理/服务化部署/端侧部署,如果不满意,您也可以使用产线的二次开发能力,提升效果。完整的产线开发流程请参考PaddleX产线使用概览或各产线使用教程。

此外,PaddleX为开发者提供了基于云端图形化开发界面的全流程开发工具, 详细请参考教程《零门槛开发产业级AI模型》

在线体验 快速推理 高性能部署 服务化部署 端侧部署 二次开发 星河零代码产线
通用语义分割 链接
图像异常检测 🚧 🚧 🚧

❗注:以上功能均基于GPU/CPU实现。PaddleX还可在昆仑、昇腾、寒武纪和海光等主流硬件上进行快速推理和二次开发。下表详细列出了模型产线的支持情况,具体支持的模型列表请参阅 模型列表(NPU) // 模型列表(XPU) // 模型列表(MLU) // 模型列表DCU。同时我们也在适配更多的模型,并在主流硬件上推动高性能和服务化部署的实施。

🚀 国产化硬件能力支持

产线名称 昇腾 910B 昆仑 R200/R300 寒武纪 MLU370X8 海光 Z100
通用语义分割

3. 图像分割相关模型产线列表和教程

4. 图像分割相关单功能模块列表和教程