
Home 7月8日新闻,苹果和哥伦比亚大学研究团队开发了一个名为SpaceScout的AI原型系统,为盲人和低视觉小组(BLV)提供街道导航援助。该系统将Apple地图API结合到多模式大语言模型(基于GPT-4O内核)中,以生成自定义环境描述。房屋注意到相关论文发表在Arxiv预印本平台上(未审查的同行)。钥匙操作:路线审查:猜测行程道路条件:虚拟探索,例如人行道质量,交叉路口,公共汽车站等。系统可以解释行人Pananaw的可见内容,以及输出结构化文本(短 /中 /长),适用于屏幕阅读软件。据报道,在测试阶段,ScenesCout招募了10位视觉残疾用户(主要是技术行业的背景)。结果表明,AI生成的72%和准确的虚拟资源的描述高度赞扬了Ation模式(用户说他们可以取代传统信息获取方法)