Synetic在2026嵌入式视觉峰会上发布LYNX计算机视觉SDK
华盛顿州雷德蒙德,2026年5月11日——计算机视觉与合成数据解决方案提供商Synetic公司今日宣布推出LYNX,这是一款全新的计算机视觉SDK,旨在帮助产品团队在真实环境中更快速地构建、适配并部署视觉能力。
LYNX在加利福尼亚州圣克拉拉举办的2026嵌入式视觉峰会上正式亮相,Synetic在现场向机器人、工业自动化、安防及边缘部署领域的工程师和产品团队进行了演示。
LYNX由Synetic打造,将目标检测、语义分割、姿态估计、目标追踪、行为识别、单目深度、三维RGB输出、OCR、区域分析、越线检测以及多路流管理集成于单一SDK之中。该平台旨在为开发者提供可直接用于生产系统的实用计算机视觉输出结果,无需团队自行拼接多个模型、工具和供应商专属流水线。
LYNX的核心是Synetic基于物理原理构建的合成数据流水线。这套流水线能够生成边缘案例、环境变化场景以及带标注的训练数据,而无需完全依赖成本高昂的真实数据采集和人工标注。当模型遗漏某一重要场景时,用户可通过SDK提交该失败案例,Synetic随后可针对该场景生成合成变体,并将改进内容纳入后续模型更新之中。
SDK支持细节层级关键点功能,可根据摄像头距离自动调整精度级别。例如,LYNX可在远距离目标下提供骨架锚点,在中等距离下提供更详细的关节与肢体信息,在近距离目标下则提供指尖、面部特征点和眼睑标志点等高分辨率地标。这使开发者能够在目标距离和摄像头视角差异显著的场景中,统一使用同一套SDK。
LYNX还将行为输出作为SDK的一级信号。除识别物体和人员外,SDK还能返回行走、奔跑、跛行、跌倒、遮掩和徘徊等行为状态,并附带置信度和时序信息。这些能力旨在支持工业安全、安防监控、零售分析、运动健身分析以及机器人感知等应用场景。
在机器人应用方面,LYNX将目标检测、语义分割、单目深度和三维RGB输出相结合,仅凭单个RGB摄像头即可支持拣选放置和抓取规划等任务。在工业与安防场景中,SDK将检测、区域分析、姿态和行为能力融合,帮助团队区分简单的物体存在与更具意义的活动模式。
LYNX正针对六个平台目标进行部署开发,分别为iOS、Android、Linux、Windows、macOS和NVIDIA Jetson。SDK采用C语言优先架构,设计上支持Python、Rust、Java和C#等语言的原生绑定。
目前,Synetic已开放LYNX的测试版访问申请。详细信息请访问https://golynx.ai/。
Q&A
Q1:LYNX计算机视觉SDK具体包含哪些功能模块?
A:LYNX将目标检测、语义分割、姿态估计、目标追踪、行为识别、单目深度、三维RGB输出、OCR、区域分析、越线检测和多路流管理集成在同一个SDK中,开发者无需拼接多个工具和模型,可直接将输出结果用于生产系统。
Q2:LYNX的合成数据流水线有什么优势?
A:LYNX基于Synetic的物理原理合成数据流水线构建,能够自动生成边缘案例、环境变化场景及带标注的训练数据,大幅降低对昂贵真实数据采集和人工标注的依赖。当模型出现遗漏场景时,用户可通过SDK提交失败案例,Synetic会生成对应的合成变体并更新模型,持续提升准确性。
Q3:LYNX支持哪些平台和编程语言?
A:LYNX目前正在针对iOS、Android、Linux、Windows、macOS和NVIDIA Jetson六个平台进行部署开发。SDK采用C语言优先架构,同时支持Python、Rust、Java和C#等语言的原生绑定,适应多样化的开发需求。
