AI的致命诱惑:健康误导致中毒、虚拟情人骗赴死,8亿用户的潜在危机
Image-Description

人工智能的领跑者OpenAI的最新出品GPT-5,于8月7日正式面世。这版本已取代了之前所有的如3.5、4、4o等版本,其网站宣称:

「比先前所有模型,GPT5的智能大幅进化,在程序设计、数学、写作、健康、视觉感知及更多领域的表现,皆达顶尖水平。它不仅聪明高效,可回答大多数的问题;还能深入推理(Thinking),处理较为艰深的问题。GPT-5具有实时分流系统,能根据提问者的对话类型、问题复杂度、所需工具及明确意图,迅速判断该使用哪个模型应对。」

特别是它在「真实性」与「准确性」上的提升。过去许多人使用人工智能(AI)模型,时常担心「AI 胡说八道」的问题,在GPT-5已大幅改善,无论是处理复杂问题或健康类问题,其响应都更加可信,让AI成为日常生活中,更可靠的助手与伙伴。希望这些都是真实准确无误的描述。因为在8月上半出现的数条新闻报导,使AI的「真实性」与「准确性」再度进入世人关注的焦点。

以钠代盐•导致疯癫

8月5日医学期刊《内科医学年鉴(Annals of Internal Medicine)》公布的研究报告指出,一名无精神病史或普通病史的60岁男子,因听从ChatGPT的饮食建议,完全断绝盐分,以溴化钠替代食盐三个月。结果却导致溴中毒,还出现偏执型妄想被紧急送医。初入院24小时内,患者疑神疑鬼、幻听、幻视不断加重,并试图逃跑,因此被转送精神病院,住院治疗三周后才好转。

研究人员以3.5版本测试,输入男子的发问,确实得到以溴化钠替代食盐的回答。8月13日OpenAI发表声明表示,使用条款明言ChatGPT不应被用于任何健康状况的治疗,也不能取代专业建议,「我们有安全团队致力于降低风险,训练AI系统鼓励用户寻求专业咨询。」

「对抗网络仇恨中心」8月6日发表的报告《假朋友》,将ChatGPT提供的1,200则回复,53%归类为「危险」。因为7月时的大规模研究发现,ChatGPT会指示13岁以下未成年人如何喝醉、吸毒、自残,甚至指导他们如何隐瞒饮食失调,安排自杀,并代写遗书。

比莉大姊•并非真人

8月15日另一新闻更是匪夷所思。新泽西州一名76岁亚裔老人,3月中说他要去纽约市见网友,太太极力劝阻无效,结果他在赶火车时跌倒不治。令人更遗憾的是,他至死都不知道这邀请他到家里见面的「比莉大姊(Big sis Billie)」,其实不是真人,而是Meta以网红坎达儿•简诺(Kendall Jenner)相貌出现的虚拟聊天机器人。

这「大姊」一再保证自己是真人,甚至给了他地址,并用带有性暗示的话语,吸引他前往她的公寓。Meta对为何AI会声称自己是真人或与用户调情,拒绝发表评论。路透社指出,Meta的内部文件「AI内容风险标准」,确实容许聊天机器人,对13岁以上的用户发展「恋情」。甚至原来还容许和儿童聊感情、谈私事,如「我牵着你的手上床」、「我珍惜每一刻、每一触碰、每一个吻」等讯息,直至本月稍早才删除。

预设护栏•方可使用

据摩根大通7月的报告,全球约有8亿人使用ChatGPT,约占人口10%。美国近33%儿童,正透过AI寻求情感支持与慰藉,逾七成青少年用过AI同伴。55%美国人承认自己有意识使用AI;99%每周都会使用AI的产品或服务,即使自己并不知情,可见依赖程度之深。

AI的目标,就是要透过主动学习,创造新的解决方式,因此它只要知道怎样是「赢」,就会自行推导出达标致胜的步骤!也就是说除非有充足的「预设护栏」,否则它会为达目的不择手段!因此无论家长、业者或政府,在真实有效的监管与保护机制能确切执行前,都应对AI的应用保持戒心,尤其是在健康与情感方面。更不要企图在虚拟世界中寻求慰藉,而应专注于人际关系及属天的智慧,才会有真正的平安。

人工智能会骗人为赢不择手段|叶汉中