在人工智能加速渗透日常生活的当下,如何构建更具情感理解力的人机交互系统,成为技术演进的关键方向。7月26日,WAIC 2025(2025世界人工智能大会暨人工智能全球治理高级别会议)在上海开幕。作为全球人工智能领域的重要会议,本届大会聚焦底层能力的进化与实际应用场景的融合。在此背景下,Soul APP携自研的全双工语音通话大模型正式亮相,展示其在“AI+社交”方向的阶段性技术成果。
在大会上,Soul团队呈现了AI在社交场景中的多种角色演化路径:既能成为情感疗愈的伙伴,也可充当关系的连接者。通过大模型,用户可以体验AI主持参与的群聊派对场景,感知AI如何自然融入多人的语音互动,通过鼓励式引导、秩序管理和情绪理解,激发真实用户的表达意愿,提高互动活跃度。
此次展示的核心技术,是由Soul APP主导研发的全双工语音通话大模型。与传统基于延迟控制逻辑和VAD检测机制的语音系统不同,该模型突破了“轮次对话”模式,赋予AI自主调节交流节奏的能力。通过此项升级,AI不仅能够在语言上更接近人类表达逻辑,更在情绪识别、反馈节奏等方面实现“拟人化”的交互体验。对用户而言,全双工的对话能力在社交场景中可以提供更为自然、沉浸的社交氛围。同时,也能降低用户社交过程中的沟通门槛与心理压力。
作为较早将AI引入社交应用场景的平台之一,Soul APP自2016年上线以来,持续以AI驱动社交关系的发展。近年来,Soul陆续推出的语音生成、语音通话与音乐生成大模型,不断通过技术创新回应用户真实的社交需求。2024年,其AI能力已整体升级为端到端的多模态大模型体系,支持文字、语音、多语种等多维度的理解与交互。
Soul平台独特的社交数据与用户生成内容,也为AI的情绪价值赋能提供了坚实基础。在平台“广场”中,约18%的新发帖直接映射了用户的现实社交困境,这些内容不仅为模型训练提供了丰富资料,也构成了Soul APP独有的社交语境样本库。围绕这些真实社交痛点,Soul进一步深化AI与社区生态的融合。例如,通过分析用户兴趣与历史行为轨迹,平台可智能推荐话题并协助内容生成,降低表达门槛,提供即时情感支持。这种“可共创、可互动”的虚拟人与真人社交结合的模式,正推动社交体验向“情感共生”方向演进。
从全双工语音技术的突破到多模态交互的探索,Soul APP在WAIC 2025的展示,不仅体现了其在AI社交领域的技术积累,更揭示了AI社交行业向“深度沉浸”与“情感共鸣”发展的趋势。通过持续创新与场景落地,Soul正重新定义AI社交的边界,为行业提供新的技术范式与思考方向。