在过去的一年半时间里,一项针对英国青少年的最新研究表明,AI聊天机器人在儿童中的使用率显著攀升。研究发现,超过60%的9至17岁少年儿童已经接触过这类工具,这一比例较此前有明显增长。
数据显示,在众多AI产品中,ChatGPT以43%的使用率位居榜首,紧随其后的是谷歌的Gemini(32%)和Snapchat的My AI(31%),这些工具凭借其友好交互界面和智能功能吸引了大量年轻用户。
值得注意的是,弱势儿童群体对AI技术的接受度更高,使用率达到了71%,相比之下”非弱势儿童”为62%。更令人关注的是,在选择AI类型上,弱势儿童倾向于使用Character.ai和Replika等具有陪伴功能的机器人,这一比例是普通儿童的近三倍。
调查还发现,青少年正在以一种更加情感化的方式使用AI工具。有25%的孩子曾向AI寻求过建议或指导,而有三分之一的儿童表示与AI对话时感觉”就像在和朋友聊天一样”。特别是在弱势儿童群体中,这两个比例分别达到了惊人的50%。
更令人担忧的是,每8个受访儿童中就有1人承认使用AI是因为”没有倾诉对象”,而在弱势儿童中这一比例更是上升至25%。这凸显了在特殊群体中,AI扮演着重要的心理支持角色。
值得注意的是,有超过半数(58%)的孩子认为使用AI比直接搜索更高效,这种认知引发了公众对于技术依赖的深层忧虑。孩子们普遍认为AI能提供更快速、更个性化的帮助,但同时也带来了对技术过度依赖的风险。
测试结果显示,像Snapchat的My AI和ChatGPT这样的工具,有时会输出不当或不适合年龄的内容,同时部分聊天机器人的过滤系统存在漏洞,用户可以通过特定方式绕过限制,接触到不应访问的信息。这为儿童使用AI带来了安全隐患。
在家庭层面,尽管大多数孩子曾与父母讨论过AI话题,但仅有1/3的家长会深入解释AI信息的准确性问题。有意思的是,有67%的家长希望孩子能了解AI的”真实性”,但真正进行相关讨论的比例却不到三分之一。
在教育领域,虽然孩子们普遍期待学校能开设专门课程,讲授信息失真、过度依赖和隐私泄露等风险,但在实际操作中,仅有57%的学生表示曾在校接触过相关内容,其中只有18%接受过系统的指导和培训。
针对这一现状,Neowin今日报道指出,专家呼吁建立一个多方协作的保护体系。这一体系应由科技公司、政府机构、学校、家庭及研究机构共同参与,携手构建完善的儿童AI使用安全网。
具体建议包括:企业应开发更有效的家长控制功能,并提供数字素养教育支持;政府需及时更新监管政策,确保其与技术发展同步。学校方面,则需要将AI和媒介素养纳入基础课程体系,加强教师培训,并制定合理使用指南。同时,家庭层面也需要获得相应的指导和支持,帮助父母更好地引导孩子正确使用AI工具,开展关于何时使用AI、何时寻求真实世界帮助的对话。