豆宝马上就要出一款智能眼镜大家一起期待吧

目前有搭载豆包大模型的智能眼镜,且字节跳动也在研发自有品牌的豆包智能眼镜,具体情况如下:



已上市产品:KTC AI拍摄眼镜于2025年8月21日在京东平台上架,9月1日开售,首发价999元。该眼镜采用高通骁龙AR1芯片,配备索尼IMX681 1200万像素主摄,支持对话翻译、同传翻译、AI视觉理解等功能。



字节跳动在研产品:据财新科技等媒体报道,字节跳动正在秘密开发一款集成豆包大模型的智能眼镜,由Pico团队主导,更接近普通眼镜形态。该产品将语音交互、环境感知与AI大模型能力深度融合,计划推出基础版、专业版和企业版,基础版售价预计1999元。


不同品牌搭载豆包大模型的智能眼镜功能有所不同,以下是一些常见的功能:



KTC AI拍摄眼镜:具有第一视角拍照录像功能,可解放双手;支持边看边问,充当随身智能百科全书;具备对话翻译功能,让外语沟通更顺畅;“AI闪记”功能能通过语音指令或快速拍照,实时记录关键信息;可通过语音指令拍照记录眼前景象,快速识别照片内的物体;还能点歌、通话、设日程,化身会议助手,实现语音转写、会议总结、重点标记、待办提醒等功能,也可用于打造直播间,自动调取直播产品信息。



老凤祥AI智能眼镜:具备帮听功能,可通过AI声音事件检测模型,主动感知门铃、电话铃等关键声音信号并提醒用户;帮看功能可实时识别人物、物体、文字与场景信息,并通过语音反馈进行播报;帮记功能能通过语音记录、图像捕捉等识别待办事项和重点事件并提醒,还可智能复述对方话语或翻译解释专业术语;亲情共享功能支持将眼镜采集的音视频流实时传送至家属端App,与亲人建立双向通信流。



字节跳动在研智能眼镜:据报道,该眼镜集实时翻译、语音交互、图像识别于一身,用户可通过语音指令获取路线导航、周边景点介绍等信息,还可能具备智能语音交互、实时信息查询等功能。部分搭载豆包大模型的智能眼镜支持前方物体识别和文字识别功能,能覆盖你提到的“识别物体、招牌文字、药品文字”需求,具体适配情况和功能细节如下:



从已上市产品来看,KTC AI拍摄眼镜明确具备相关能力——通过配备的索尼1200万像素主摄捕捉画面后,借助AI视觉理解技术,可实时识别前方的物体类别(比如识别路边的树木、交通工具等),同时能提取画面中的文字信息,包括街头招牌上的店铺名称、地址,以及药品包装上的药品名称、成分、用法用量等文字内容,识别结果会通过语音反馈给用户,方便快速获取信息。



而字节跳动在研的豆包智能眼镜,据报道也集成了图像识别功能,核心方向之一就是通过视觉感知解读周边环境信息,理论上同样支持物体和文字识别,不过具体对“药品文字”这类细分场景的适配精度(比如是否能清晰识别小字体、复杂排版的药品说明),还需等产品正式发布后进一步确认。



简单来说,目前已上市的KTC AI拍摄眼镜可直接满足你识别物体、招牌及药品文字的需求,若你更关注普通眼镜的便携形态,也可留意后续字节跳动相关产品的发布信息。


目前部分搭载豆包大模型的智能眼镜,已具备基础的障碍物识别与辅助导航能力,可一定程度上为视力障碍者提供帮助,但功能细节需结合具体产品来看:



从已上市的KTC AI拍摄眼镜来看,其核心依托高像素主摄与AI视觉理解技术,能实时捕捉前方环境,识别出常见的静态障碍物(如台阶、栏杆、桌椅、墙面等)和动态障碍物(如行人、移动的车辆等),并通过语音快速播报障碍物的类型、距离(如“前方3米有台阶”“右侧1米有行人经过”),帮助用户提前预判环境风险。不过在导航功能上,它更多是结合语音交互提供“路径指引辅助”——比如用户说出目的地后,眼镜可联动地图生成路线,并通过语音逐步提示转向(如“前方路口左转,进入XX街道”),但暂未明确支持更精细的盲道识别、地面凸起/凹陷检测等深度无障碍场景功能。



而字节跳动在研的豆包智能眼镜,据报道聚焦“环境感知与AI融合”,虽未明确提及针对视力障碍者的专属优化,但从其“语音交互+图像识别”的核心方向推测,未来或可能强化障碍物识别的精度(如区分不同障碍物的危险等级),并结合实时环境数据优化导航的实用性(如提示“前方路段有施工,建议绕行”),不过具体是否针对视力障碍群体做适配,仍需以产品正式发布的功能为准。



总体而言,当前已有的搭载豆包大模型的智能眼镜,可满足视力障碍者对“基础障碍物预警”和“语音导航辅助”的需求,但在深度无障碍场景(如复杂地形识别、紧急情况快速响应)的适配的上仍有提升空间。如果需要更精准的无障碍辅助功能,建议在选择时优先关注产品是否明确标注“无障碍优化”相关特性,或进一步了解实际使用中的场景适配效果。

发表于:2025-08-28 15:54
23个回复
您还没有登录,登录后才可回复。 登录 注册