北京泛视云网科技有限公司
400-801-0336
Beijing Fanshi Cloudnet Technology Co., Ltd.
关于AI的一些思考
来源: | 作者:北京泛视云网 | 发布时间 :2025-02-12 | 167 次浏览: | 分享到:
近年来AI广受追捧,被人们寄予厚望,但我们与许多学者探讨和思考后,发现当前AI还存在一些不足,希望能引起大家的注意,促进技术的完善。具体涉及到六点:片面性、机器迷信、少数派观点、缺种群、可靠性和思辨能力。

近年来AI实在是广受舆论和各行追捧,性能不断提升,功能层出不穷,应用百花齐放,投资热情飙升。AI的本质是基于已有知识库的智能表述和推演,基本功能就是信息搜索、信息整理和推理、智能建模优化、智能交互。AI的迅猛发展,的确为各行各业的发展提供了又一次突破性的变革,AI可以协助个人、团队丰富知识认知,扩展思路,替代大量基于已有知识和经验的人工工作。但是,AI也不是无缺的,当前的AI具有明显的不足,具体表现在如下6个方面。

 

1、片面性

由于AI的原理,其输出依赖于投喂的信息,如果从投喂的信息就包含错误,那么,其输出的结果也难以避免错误。有语言学的朋友曾经通过AI检索某名词的解释,发现这个名词的解释并不正确,再换其他网络搜索平台去搜索,发现网上大量的重复地对该名词的解释都是一样的,这也就难怪AI所输出的内容也不正确了。

需要针对AI输出结果的错误建立用户反馈机制。即,需要能够得到用户上报反馈。对质疑问题,需要由专业人士人工确认正确信息,并修改完善信息库。

 

2、机器迷信

虽然说人工智能只是作为信息搜集整理的一个工具,但由于AI当前的火爆,及其在知识内容上相比人类大脑存储量的无限扩大,人们会误以为AI所输出的信息都是正确的。人们会想,AI输入的信息可能都是教科书或公开发表的内容,AI算法也是经过高深的计算机算法实现,那么AI的输出怎么会有错呢?这种机器迷信的思想,将有可能扩大人类的惰性,导致事事都遵从AI的建议。更具体地,当数据分析的工程师采用AI进行数据的分析和整理时,AI可能未有效执行数据清洗的步骤,便试图从不完整、甚至有错误的原始数据中获取某种规律,但这种规律,也只是具有启发价值,并不是**的。但有可能有些研究者,便会将AI推理的结果发表出来。这样的报告或论文,有数据,有结论,看似是一篇好文章。但事实上,这个AI所给出的结论只是一个推论,不一定是全部事实。现在大量的AI平台号称能够输出分析报告,其数据基础的正确性,推理过程的严谨性,以及推论结果趋势的可信性,都是值得推敲的。

为了便于AI输出内容的求证,对应AI生成的文字、图片、视频等信息,需要包含AI识别标识,以便AI输出内容的阅读者或使用者对该内容进一步审核确认。

 

3、少数派观点

过度依赖AI可能会掩盖少数人的观点。AI推理的原理是基于多数人的表述,人们进一步借助AI去进行推理,并将推理进一步投放到信息池中,长此以往多数人的观点将被进一步的放大,形成群体性的一致思路,这种状况对少数派的声音会形成打击。有些时候,真理掌握在少数派手中;还有些时候,需要鼓励少数派去尝试。过度依赖AI的方式会抹杀少数派的观点,减少人类探索尝试。

在AI交流过程中,需要提供保留少数观点的机制,特别是原创的信息内容,也需要能够呈现。

AI该具备对自己输出结果的审视能力,输出应该自带可信度评分。对有疑问的输出,提供溯源和查证的手段。对可信度低的输出,采用不确定性的文字表述,比如:大概…可能会…我的观点是…

 

4、种群

当前AI智能体具有单一性。具体而言,基于同一个信息池进行AI训练所输出的结果,虽然通过其过程的随机因子,可以使其输出,展现出多种不同的语言表达形式,但由于信息池来源的单一特性,AI算法自身架构的单一性,其推理结果也必将表现出某种单一性。这如同一个人类的婴儿,在逐步成长过程中,因其独一无二的基因、成长环境、各种经历,势必成长为某一独特气质的成人,所以某一个AI系统只能构造成某一独特的AI智能体。如果以社会观去看待这样的一个智能体,可能就像温室中的一个特定花卉,难以继续繁衍,难以形成种群发展。

要想打造AI智能体的健康发展,可能需要数以万计的AI智能体,形成某种相互联系的AI种群发展,这种联系包括合作、繁衍、竞争、淘汰,类似于人类的婚姻、育儿、战争和毁灭,才能保持AI智能体的良性、持续发展。

 

5、可靠性

AI输出的结果并不能确认为100%安全可靠的。AI的随机推理,可能获得非确定的结果,由此不适合应用于可靠性能要求高的产品的最终生成过程中。当然,这里强调的是“最终”环节,最终环节包括软件确认版本、产品中试、来料检验、生产加工、产品问题的分析和跟踪等环节。AI生成的代码还是需要检验和测试,才能使用的,保障安全可靠的已有环节无法缺失。

AI的知识库却有利于协助增强产品的可靠性,以机器强大的分析计算能力推进对各个检查环节的处理能力,包括:代码分析、测试例完整性、提供问题分析思路、提供风险建议等。

 

6、思辨能力

AI目前不具备真正意义的自学习,因为AI不能主动提出疑问。当前AI是根据接收到的输入来生成相应的输出,并不具备自我意识或主动性去质疑任务的有效性、准确性或者完整性。当前只能由使用者已经AI输出结果,发现疑问,并再次让AI探究问题产生的根源。例如,在一个客户服务场景中,如果客户提供的信息不足以解决问题,AI助手需要经过设计,由应用AI功能的软件强化要求对输入信息条目的完整性,并设置AI自动询问更多相关的问题以获取必要的信息。当前,这种行为并不是AI自主产生的疑问,而是预设好的逻辑流程。

要实现AI的疑问,就需要AI具有思辨能力,这就需要AI不能只是单一思路得到一个结果,需要具有多思路、多步骤分析能力,并利用不同思路分析结果的差异,提出对中间环节的疑问。多思路的多还不能只是两三个,可能对某些问题的分析只能用机器最笨的枚举、或者蒙特卡罗分析方式计算才行。当然如果这样做,不知AI能体是不是也会像人类一样出现人格分裂。

 

总结:

人类发展的历史,就是不断寻求认知突破,不断发展的历史。上述思考虽然指出当前AI技术仍然存在的不足,但是并没有否认AI在给人们扩展思维边界,为人类各行各业的活动提供革新思路,孕育新的产业,实现更高级的人工智能的基石作用。也是希望大家在看到变革带来的潮流时,也能提前关注到新事物带来的风险,提前从数据多样性、数据筛选和思辨能力建设上完善AI功能,人们需要选择合适的场景应用AI,在高效的同时也确保更可信、更可靠、更安全,始终保持批评、质疑、反思精神去使用AI、发展AI,确保AI的应用能够真正服务于全人类的利益。