咱们平时聊起AI,最关心的俩问题肯定是:这东西以后能更“灵光”不?啥时候能跟人一样会思考、懂变通啊?今天就用大白话把这事儿掰开揉碎了说,不用整那些听不懂的技术词,保证大家都能看明白。
一、先给结论:AI肯定会更“聪明”,但短期内成不了“人精”
首先得明确一点,未来的AI绝对会比现在好用得多、能干得多,也就是咱们说的“更聪明”。但要是说它能达到人类那种“上知天文下知地理,还能察言观色、灵活变通”的智力水平,短期内肯定没戏。这里的“短期内”,保守估计至少是几十年,甚至可能更久,不是说三五年就能实现的。
可能有人会问,“更聪明”具体是啥样啊?其实就是AI在咱们生活、工作里能做的事儿越来越精准,效率也越来越高。比如现在AI帮医生看CT片,可能还会漏诊一些早期的小病灶,以后它就能看得更细,准确率比现在高一大截;再比如现在用AI写个文案,有时候还得人改半天,以后它可能一写就符合咱们想要的风格,不用怎么调整。这些都是“更聪明”的表现,而且肯定会慢慢实现。
但“达到人类智力水平”就不一样了。人类的智力不光是会做题、会干活,还包括能理解感情、能自主感情、能应对突发状况。比如你跟朋友聊天,对方说“今天天气真差”,你能听出他可能因为天气不好心情不好,还能安慰他;但AI现在只能识别“天气差”这个信息,没法体会背后的情绪,更不会主动安慰人。这种差距,不是简单提升技术就能补上的。
二、为啥说AI会更“聪明”?技术在不断突破
AI能变“聪明”,核心是背后的技术一直在升级,就像给AI不断“充电”“升级装备”一样。现在有几个关键技术方向,都在帮AI变得更强。
第一个是“物理信息神经网络”。听着挺玄乎,其实就是让AI能更好地理解现实世界的规律。以前AI处理数据,大多是“死记硬背”,比如看了一万张猫的图片,就知道“长这样的是猫”,但它不知道猫会跑、会跳,不知道猫的身体结构为啥能支持这些动作。而物理信息神经网络,能把物理定律(比如力学、光学原理)融入到AI的“学习过程”里。比如训练AI识别车祸现场,它不光能看到“车撞在一起了”,还能根据物理规律判断“撞击力度大概有多大,可能会造成哪些损伤”,这样它给出的分析结果就更贴合现实,不会犯“常识性错误”。
第二个是“因果模型”。咱们人类做事,很擅长找“因果关系”,比如“因为没带伞,所以淋雨了”“因为努力学习,所以成绩提高了”。但以前的AI,只会找“相关性”,比如它发现“冰淇淋销量高的时候,溺水事故也多”,就可能误以为“吃冰淇淋导致溺水”,却不知道其实是“天气热,大家既爱吃冰淇淋又爱去游泳”。而因果模型就是教AI分清“相关”和“因果”,让它思考问题更有逻辑。比如用在医疗领域,AI不光能发现“某类人群发病率高”,还能分析出“是因为饮食习惯,还是遗传因素,或者是环境影响”,这样给出的健康建议才更靠谱。
有了这些技术,AI在专业领域的能力肯定会越来越强。比如在金融领域,以后AI能更准确地预测股市波动,不是靠瞎猜,而是靠分析经济数据、政策变化之间的因果关系;在教育领域,AI能更精准地找到学生的知识漏洞,不是简单地多做题,而是分析“为啥这个知识点没学会,是理解错了概念,还是没掌握解题方法”。这些都是AI变“聪明”的具体体现,而且会实实在在地帮咱们解决问题。
三、为啥说短期内AI达不到人类智力水平?三大瓶颈绕不开
虽然AI会变“聪明”,但要达到人类的智力水平,还有三个大难题没解决,这些难题不是靠“堆数据”“堆算力”就能搞定的,得有本质性的理论突破才行。
第一个瓶颈:AI本质是“模式匹配”,不是真“理解”
现在的AI,不管是ChatGPT,还是能画画的Midjourney,核心逻辑都是“模式匹配”。简单说,就是AI在海量数据里找规律,然后根据规律生成答案。比如你让AI写一篇关于“春天”的作文,它其实是把以前看过的几百万篇“春天”的文章拆成片段,再重新组合起来;你让AI看一张X光片,它也是对比以前看过的几十万张X光片,找“哪块阴影跟癌症的特征最像”。
但这不是真的“理解”。人类看到“春天”,会想到小时候在春天放风筝的回忆,会闻到春天里花香的味道,会感受到天气变暖的舒服;而AI不知道“春天”是什么感觉,它只知道“春天”这个词常和“花开”“燕子”“温暖”这些词放在一起。再比如,你问AI“为什么水结冰会膨胀”,它能说出“因为水分子结冰后形成晶体结构,间隙变大”,但它没法像人类一样,通过“冬天冻住的水管会裂开”这个生活经验,真正理解“膨胀”的含义。
本小章还未完,请点击下一页继续阅读后面精彩内容!
喜欢大白话聊透人工智能请大家收藏:(www.qbxsw.com)大白话聊透人工智能全本小说网更新速度全网最快。