AI 发展经历多个里程碑,最早可以追溯到 1950 年代,早期人们开始探索 AI 即人工智能的概念,后来就开发了一些早期的处理语言,比如 ELIZA;
到了 1960 年代,发展出了【专家系统】和【归纳学习算法】;
再到 2000 年后,AI 发展出了【深度学习技术】、【自然语言处理技术】和【计算机视觉技术】这些关键技术;
再到 2022 年,ChatGPT 诞生,颠覆 AI 从阅读理解到生成创造,自此,AI 能很好地合成结果、创造结果了~
一图胜千言,按照上图时间顺序,接下来具体讲讲下各关键节点、关键技术。
起源
人工智能这个概念其实来源于:达特矛斯会议。
1956 年 8 月 ,约翰·麦卡锡等人召集同道合的人共同讨论,在会议中集思广益,持续了一个月,这催生了人工智能革命。
会议设定了 7 个议题,分别为:
自动计算机、如何对计算机进行编程以使用语言、神经网络、计算规模理论、自我改进、抽象、随机性与创造性
控制论
控制论定义为“以机器中的控制与调节原理、以及将其类比到生物体或社会组织体后的控制原理为对象的科学研究。”
意思是从这个时候开始,人们有了意识:用科学的方法去研究对机器的控制。
控制论包括控制器设计、系统建模、智能控制算法、系统识别和自适应控制等模块;
在我国,它被认为是现代资讯技术的理论基础,和系统论、信息论并称为“老三论”;
作为基础理论,控制论应用在许多领域,比如工业控制、机器人技术、交通控制和能源管理等。
NLP
NLP 这个大家应该不陌生了,最近各种 GPT 发布会中一直有听到;
NLP,即自然语言处理(Natural Language Processing)
它旨在研究如何让计算机理解、处理和生成自然语言;通过 NLP 技术,人们可以开发出各种语言应用程序,如语音识别、机器翻译、文本分类、情感分析等;
举一个 NLP 的例子:
我们把香蕉给猴子,因为(它们)饿了
我们把香蕉给猴子,因为(它们)熟透了
这两句话有着有同样的结构。但是代词“它们”却意思不同,这就考验机器的自然语言理解与处理;
中文博大精深,对于中文理解来说,更是如此:
《阿呆给长官送红包》长官:“你这是什么意思?” 阿呆:“没什么意思,意思意思。” 长官:“你这就不够意思了。” 阿呆:“小意思,小意思。” 长官:“你这人真有意思。” 阿呆:“其实也没有别的意思。” 长官:“那我就不好意思了。” 阿呆:“是我不好意思。”
ORZ,文心一言的中文处理能力任重道远~
CV
这里 CV 不是“复制粘贴”,而是 Computer Vision,计算机视觉。
NLP 是理解文字、CV 就是看图片。
CV 包含如下一些分支:画面重建,事件监测,目标跟踪,目标识别,机器学习,索引创建,图像恢复等。它在 20 世纪末被推出;
基于 CV 技术,人们可以开发出如人脸识别、物体检测、图像分割、视频跟踪等各类应用;
NASA火星探测车的双摄影机系统
深度学习
深度学习,也是 AI 中最老生常谈的概念。
官方来说:它是一种以人工神经网络为架构,对资料进行表征学习的算法;
非官方来说:它就是一种更加强大、能处理更多复杂问题的机器学习方法;
因为它 使用多层神经网络模拟人脑的运作方式,从而可以自动从数据中学习特征并进行分类、预测和决策等任务;
数据量越大、计算能力越强,深度学习就越强。
经典的卷积神经网络模型
GAN
GAN 是生成对抗网络(Generative Adversarial Networks)的缩写,它是一种使用深度学习技术生成新数据的方法。
为什么叫对抗?
因为它通过两个神经网络相互博弈的方式进行学习;
GAN 由一个生成器和一个判别器组成:生成器将随机噪声转换为新的数据样本,而判别器则尝试区分生成器生成的样本和真实的数据样本。
通过反复训练生成器和判别器,GAN可以生成高质量的样本,例如图像、音乐和文本等。
GAN 在 2014 年被提出,它是从“深度学习”到“生成数据”的关键。
由 GAN 生成的人脸
AI4S
AI4S 在 2022 年被提出,即 AI for Science:用人工智能先解决科学问题(学习科学原理),再解决产业问题。
因为目前,许多研发密集型产业(例如新能源、生物制药、原研材料和集成电路等)已经经过几十年的发展,进入了研发深水区,产业升级面临的主要瓶颈越来越集中于基础科学问题的限制。
AI4S 可以用机器学习底层的科学原理,并将其应用于实际问题中,在许多场景中展现出极强的生命力。
用 AI 来做科研,再从科研到生产~