“无所不能”的AI做这些事却“万万不能”
时间:2025-03-13 19:44:49 出处:百科阅读(143)
你是无所不能否觉得AI无所不能?查文献、写总结,无所不能咨询买房、无所不能AG超玩会入口炒股,无所不能甚至是无所不能看病、算命……
DeepSeek(深度求索)开启了AI普惠应用的无所不能新纪元,让更多普通人与国产人工智能大模型零距离接触,无所不能但AI的无所不能缺陷也很快暴露——“万能”的AI,尤其是无所不能号称具备思考能力的AI大模型,其实可能“不靠谱”。无所不能
开放是无所不能AI大模型未来的发展趋势,这也意味着AI将更广泛地渗透到各行各业,无所不能影响人们的无所不能日常生活和工作模式。除了更谨慎使用它,无所不能普通人在使用时要注意什么?
“出门问问”大模型团队前工程副总裁李维提出了三点建议:保持警惕、无所不能交叉验证、引导模型,尤其是面对数字和事实时,更要谨慎。
“坑”不少
甄别网络信息真伪有难度
从“有事问百度”到“有事问DeepSeek”,这一转变勾画出人与AI的日常互动模式,也给人们“网络冲浪”带来体验感的AG超玩会入口升级。
但在互动中,AI可能也会“挖坑”。
“AI查阅文献是如此的不靠谱。”近日,广州高校的一名教授通过DeepSeek查询文献信息,核实后却发现它所提供的作者是假的、年份是错的。
这并非个例。
当要求提供一个法院判决案例时,DeepSeek便会根据此前给出的材料,合理想象案例内容。为增加信任度,它还会给出案卷号,但却“查无此案”,再次追问,它立马认错。
这几天,有一则耸人听闻又漏洞百出的消息广为传播:“截至2024年末,‘80后’死亡率突破5.2%,相当于每20个‘80后’中就有1人已经去世。”专家研判得出结论是,这消息很有可能是AI大模型在问题回答过程中出现错误。
撇开专业的问题不谈,在回答生活问题上,AI总能得心应手吧?其实也不然。
有人用AI的意见炒股。当输入某只股票代码,询问支撑位和压力位时,它给出的答案与真实情况会有差异。以DeepSeek为例,它的数据库截至2023年10月,跟不上变化莫测的股票市场,数据有一定的滞后性。
其实不难理解,AI更多的是对现有互联网信息进行推理和二次创作,一旦源头的资源和数据有误,它生成的内容自然会有差错。从目前使用体验看,AI暂时不具备甄别网络信息真伪的能力。
让用户觉得有趣的是,有时AI就像个小孩,当你质疑时,它能够迅速低头认错,并感谢人类的指正。态度如此“乖巧”的人工智能,有时反倒不好过多苛责。
此外,让人没想到的是,AI还会被用来算命和预测运势,并以此促成决策。
李洪(化名)在决定离职前,就咨询过DeepSeek是否应该离职。他坦言,在查询之前,自己的内心其实已经有了答案。人工智能预测他今年可能遇到比较大的转变,得到这个回复后,他离职的意愿从七成提高到了九成。
与其说他是相信AI的“神秘力量”,不如说是在面对不确定的未来时,人可以通过与AI对话去确认内心里原本存在的确定性。
不“背锅”
AI不会承担法律责任
说了AI的能力“天花板”,再来看看它的“底线”。
如果你问DeepSeek,它不能在哪些领域提供建议或决策,它给出的回答包括医疗健康、法律事务、金融投资、学术诚信、个人隐私等。
在社交媒体上,人们找AI诊断、开方的操作已屡见不鲜,但在专业人士看来,即使是经过专业的学习训练、已在医院开展普遍应用的“AI医生”(AI医学大模型),在医疗行为中也只能承担辅助功能。
有人用手机拍了一张病理检测报告发给“AI医生”提问:“从这张报告的检测结果来看,我有没有患淋巴瘤?”它的反应很快,仅仅几秒钟就给出了回复:“是的,从这个报告的结果来看,您有很大的可能患有淋巴瘤。”
但经线下医生专业判断,这只是普通的炎症。
“AI医生”的误诊会给人们带来不必要的焦虑,也可能耽误真正的病情,但责任不在AI,而在错误使用它的人。
“其实DeepSeek回复的内容质量对指令有一定要求。”广州医科大学附属第二医院副院长杨辉认为,当医生向DeepSeek提问时,已经尽可能转换为专业、系统性的问题,但得到的答案依然不靠谱。对于没有医学知识背景的患者,显然更难获得准确且有益的回复。
“人体是一个精密复杂的生命系统,AI的判断却往往简单粗暴。”杨辉说,以慢性阻塞性肺疾病(COPD)患者为例:这类患者在发病早期可能表现为食欲减退等消化道症状,并非典型的咳嗽、气促等呼吸道症状。若此时市民通过“胃口差”等关键词咨询“AI医生”,就会造成误诊,耽误最佳治疗时机,导致病情恶化。
杨辉说,目前的“AI医生”在给出西药的用药建议时,可能会开出一些存在于教科书上但已被市场淘汰的药物,而真实的医生基本不可能存在这种问题。
因此,现阶段的“AI医生”只能作为助手承担日常性、规律性的工作任务,如辅助判断肺结节的分型、分类等。
AI其实也有“自知之明”。涉及生命安全、财富、伦理与道德以及学术研究等方面的问答,它选择“不背锅”,都会建议咨询专业人士并在必要时寻求专业帮助。
对此,法律界人士也建议,慎重听取AI的建议。因为AI不会承担法律责任,它没有独立的法律人格或意识,听信它的建议产生一切后果都需要用户“自负”。
工具强大
关键在于怎么使用它
更“聪明”的生成式人工智能面世后,关于它的争论几乎没有停止。
数据是生成式人工智能的“食粮”。把现有的数据喂给生成式人工智能,它可以自行挖掘数据之间的关联,从而产生新的内容。
号称具备了思考能力的AI大模型,其实就像一个“接话茬高手”,你给它上半句,它就根据自己“吃下去”的海量知识,预测下半句该说什么。
这种推理逻辑一般也不会太离谱。它一般只会把张三和李四混淆,不可能混淆张三和石头这种有本质区别的对象,但差错会以更隐蔽的状态存在。
人们为此创造了一个新词“AI幻觉”,来指代大语言模型编造它认为是真实存在的甚至看起来合理或可信的信息。
“AI幻觉”是如何产生的?这与其被训练的方式有关。
训练大模型就好像是训练警犬,当它以某种方式完成人发出的指令,并得到“奖励”后,接下来就会更倾向于以这种方式来完成同类型的指令。
DeepSeek面世后,大家先是惊叹于其强大的文本创造力,但慢慢也会发现许多“不靠谱”之处,比如内容偏离基本事实。对此,李维认为,这可能是因为在训练阶段,它更被鼓励创作一篇文采飞扬的文字,而非进行事实核查。
2月13日,香港中文大学(深圳)成立人工智能学院。现场的一个花絮耐人寻味:该校校长、中国工程院院士徐扬生说,自己使用AI写了一篇讲稿,但最后没采用。他笑着解释:“人的思想是最重要的,AI能代替一部分工作,但却代替不到最精华的东西,它无法了解你心里想说的话。”
说到底,AI再强大,也只是一个工具,关键在于人类怎么使用它。
AI避“坑”指南
保持警惕
大模型说的话,特别是涉及事实的,别全信,最容易产生差错的地方是人名、地名、时间、地点等实体或数据,一定要特别小心。
交叉验证
重要的细节,可上网查查原始资料或询问身边专家,看看说法是不是一致。
引导模型
可以在提问时加入一些限定条件,比如“请务必忠于原文”“请核对事实”等,尽可能引导模型减少差错。
南方日报记者 黄锦辉 刘汉能
统筹:吴少敏 李秀婷 黄锦辉
上一篇: 黄山风景区通报游客失联情况:尚在搜寻中
下一篇: 不怕臭气熏天 义务清扫公厕