为了找到一件真正合身的衣服,很多人都经历过这样的场景:手抱几件不同尺码的外套,在试衣间门口排队等待。反复穿脱、来回对比,既耗时间,也消磨耐心。
而在企业统一配发制服的场景中,这种低效会被进一步放大——人工量体、手工记录、反复试穿与返工,让“选一件合身的衣服”演变成一项系统性难题。
有没有一种方式,能从源头上优化这种体验?
来自比利时布鲁塞尔的三维扫描初创企业Treedy's,给出的答案是三维人体扫描系统SIZED,把“选尺码”这件事,从试衣间、皮尺和经验判断中彻底解放出来。
消费者无需脱衣,只需在设备前短暂停留,系统便可在数秒内获取毫米级精度的人体三维数据,并生成一份可长期复用的数字体型档案。一次扫描,多次使用——“一次量体,终身调用”,不再是一句口号。
支撑这一体验的,是Treedy's自研的AI算法NakedNet与奥比中光Astra 2结构光3D相机的深度协同。
即便在穿着日常服装的情况下,系统也能“透过衣物”还原真实体型,推算出更贴合的尺码建议。在超过3万次线下验证中,SIZED全身扫描用时约30秒,整体误差率控制在2%以内。
除了算法,“量体选衣”还需要可靠的深度感知能力。在真实门店环境中,扫描设备需要面对深色牛仔、厚重外套、多种面料以及复杂光照条件。只有持续输出高密度、高精度的三维点云数据,算法才能在“穿衣状态”下还原真实体型,不被衣物的形态误导。

图片来源:Treedy's SA
在SIZED的人体扫描设备中,扫描模组自上而下垂直部署了三台奥比中光Astra2单目结构光3D相机,对人体进行完整覆盖式采集。这一设计并非简单堆叠,而是围绕“量体选衣”这一核心目标,对精度、稳定性与隐私要求的系统性回应。
Astra 2基于红外结构光成像,可清晰区分衣物褶皱与真实体型轮廓,这是判断服装合身度的关键。结合奥比中光定制MX6600芯片,其深度精度在1米内控制在0.16%以内、2米内不超过0.3%,使算法得以捕捉肩线、腰围与体态变化等决定性细节。
同时,1600×1200的深度分辨率与30fps输出,为AI提供连续、细腻的三维点云数据;而基于深度而非RGB成像的机制,也在硬件层面规避了面部纹理采集,更符合欧洲对隐私与数据合规的要求。
SIZED已在布鲁塞尔的迪卡侬Evere门店中部署,顾客仅需30秒即可完成三维建模,并生成可在线上线下通用的个人尺码档案。
原本依赖反复试穿、耗时数分钟的选码流程,被压缩为一次站立式扫描;尺码判断从经验与试错,转向数据与算法驱动。
图片来源:Treedy's SA
在消费者零售与企业制服分发场景中,这一模式迅速显现价值:量体准确率达98%,新人入职量体仅需30秒,累计扫描超过3万次,综合成本降低75%。随着规模化应用推进,退换货率与库存压力持续下降,数字体型数据也不断沉淀,成为可长期复用的核心资产。
“如果用人工量尺码,就难以满足大规模服装分发和管理的需求。”Treedy’s/SIZED创始人兼CEO David Francotte表示,“SIZED的价值在于把量尺码升级为一种数字化基础设施,不但精准、可重复、而且也保护隐私。奥比中光的深度感知技术,为我们的AI提供了高质量的数据基础,消除了人为判断的误差,让每一位员工在任何地点,都能有可靠、合身的尺码数据。”
SIZED案例背后,是以奥比中光为代表的高精度三维感知系统,正在包括智慧零售等各行业加速落地的缩影。
类似实践已在全球范围展开:日立基于奥比中光3D相机打造“CO-URIBA”无人收银系统,通过三维视觉识别无条码商品,重构零售结算体验;Lavavision将Astra2集成至MotionCube互动地板与墙面系统,借助深度感知技术,把物理空间转化为面向教育与康复的沉浸式交互环境。
从零售到医疗,从制造到互动体验,高精度三维数据正在成为AI替代人工判断的关键基础设施。奥比中光提供的不只是3D相机,而是一套让终端设备真正“看懂”世界的视觉引擎。
- 关于Treedy’s
Treedy’s是来自比利时布鲁塞尔的三维扫描初创企业,其开发的SIZED是一项3D人体扫描技术,正在重塑制服与服装行业的尺码与合身基础设施。通过在穿着日常服装状态下完成3D人体扫描,并建立以隐私保护为前提的数字体型档案,SIZED实现了规模化的精准匹配,帮助企业降低退换货率、减少运营摩擦与资源浪费,同时推动更高效、更可持续的运营模式。