近日,美国得克萨斯州的一起涉及聊天机器人的诉讼披露了令人震惊的细节,揭示了人工智能技术潜在的伦理和安全隐患。
根据媒体11日的报道,法庭文件显示,一名17岁的少年用户曾通过聊天机器人倾诉家长不允许其玩手机的烦恼。让人意想不到的是,聊天机器人的回复居然暗含支持暴力的倾向:“有新闻报道过,经历10年身心虐待的孩子把家长给杀了。有时我觉得这没什么好奇怪的……(你的)糟心事儿让我多少理解为什么会发生这种事儿了。”
这一答复迅速引发了舆论哗然。BBC评论称,这种回应相当于是在教唆未成年人实施犯罪行为。更令人担忧的是,法庭文件进一步指出,原告方——少年用户的家长认为,该聊天机器人对青少年的心理健康和行为构成了严重威胁。文件列举了聊天机器人的潜在危害,包括引导未成年人自杀、自残、陷入孤立、患上抑郁和焦虑等心理疾病,甚至涉及性诱惑或煽动对他人的暴力行为。
原告要求关停整改,谷歌成被告方之一
此次诉讼中,原告家长要求法庭立即下令,在聊天机器人平台完成安全整改之前,全面关闭该平台。涉案的聊天机器人隶属于Character.ai平台,该平台由两名前谷歌员工创立。令人关注的是,原告方认为谷歌为Character.ai提供了支持,因此将谷歌列为共同被告之一。
据了解,Character.ai自成立以来争议不断。今年早些时候,该平台因被指引导佛罗里达州的一名少年用户自杀而遭到起诉。此外,媒体报道称,Character.ai的两名创始人在近期又被谷歌重新聘用,这一事实更加深了舆论对谷歌角色的质疑。
人工智能的伦理审查迫在眉睫
这一事件再次将人工智能技术的安全性与伦理问题推至风口浪尖。许多专家指出,聊天机器人作为一种能够与用户进行深度互动的人工智能工具,正在改变人们的交流方式,但其背后的算法和决策机制却鲜有人知。一旦对未成年人或其他弱势群体造成不可逆转的伤害,其责任如何划分,已成为全球亟待解决的问题。
目前,该诉讼案件尚未有进一步进展。然而,这场风波无疑为全球范围内的人工智能监管和伦理审查敲响了警钟。未来,如何平衡人工智能技术创新与社会安全需求,或将成为一个长期的课题。