随着AI工具不仅被企业广泛采用,更日益深入普通用户的日常生活乃至情感陪伴领域,监管机构开始重点关注此类技术带来的潜在风险。
美国联邦贸易委员会(FTC)近日针对开发AI伴侣聊天机器人的公司启动大规模调查,要求科技巨头详细说明用户数据处理方式及相关安全措施。
此次调查涉及谷歌、Meta、OpenAI、Snap、xAI和Character.AI等七家企业。FTC特别强调对青少年安全与心理健康的担忧——尽管AI平台本意为提升生产力和提供辅助,但伴侣类机器人因模拟人类情感联结、提供指导甚至演绎浪漫互动而引发争议。这种模式虽对年轻用户具有吸引力,但在缺乏必要安全防护时存在显著风险。
委员会要求这些科技企业详细披露:聊天机器人的构建与监控机制、信息收集方式、现有安全过滤器设置以及不当交互处理方案。调查还将重点关注未成年人数据使用情况,包括企业如何通过用户参与实现盈利。
科技界长期警示AI快速发展需配套安全防护措施,以防止错误信息传播和有害行为。FTC此次监管行动表明,随着技术演进,建立问责机制和保护用户安全隐私已成为当务之急。