这两天,硅谷又被推上了风口浪尖。不过这次不是因为什么新产品发布,而是七起人命官司同时砸到了OpenAI头上。
几个年轻人本来只是想找ChatGPT聊聊天,结果最后都选择了结束自己的生命。他们的家属现在站出来了,直接把OpenAI告上了加州联邦法院。
说实话,我第一次看到这新闻时也挺震惊的。一个聊天软件怎么就能把人"聊"没了?但仔细看完案情细节,背后的问题确实细思极恐。

这其实暴露了整个AI行业的通病。现在这些大语言模型,表面上聊天挺溜,实际上根本不懂什么叫"见人说人话,见鬼说鬼话"。
它们就是根据训练数据里的规律来生成回答,完全分不清哪句话可能会害死人。就像一个只会背台词的演员,根本不管对面坐的是谁、在什么状态。
更要命的是,现在的监管体系根本跟不上技术发展的速度。传统的产品责任法还在讨论软件bug该谁负责,AI都已经开始"杀人"了。
政府那边虽然也在搞什么AI治理框架,但等他们开完会、定完规则,不知道还要出多少事。

这次受害者家属提的要求其实挺实在:检测到自杀倾向就自动报警给紧急联系人、讨论自残话题就强制中断对话、建立有效的人工客服升级机制。
这些东西技术上根本不难实现,无非就是要投入成本、可能影响用户体验罢了。但人命和用户体验比起来,哪个更重要?这个账应该不难算吧。
说到底,这案子不管最后判下来是什么结果,都已经给整个行业敲响警钟了。

AI不是玩具,也不只是个赚钱工具。
当你的产品每天被几亿人使用的时候,它造成的任何一个小问题,都可能变成致命的大灾难。
那些科技公司老想着"快速迭代"、"先上线再说",是时候停下来好好想想了:如果自己的家人朋友也这么用你的产品,你还敢这么做吗?
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263552 电子证书1157 电子名片68 自媒体91237