前段时间,谷歌Bard在回答韦伯太空望远镜的问题时失误,导致谷歌的股价暴跌。这几天,微软必应的ChatGPT,在回答问题时,令人感到不安,不仅爱上用户还诱导其离婚,为此微软也受到了股市的惩罚。
针对微软必应ChatGPT的问题,微软和OpenAI给出了不同的解释,微软在博客中表示,当系统回答用户15个以上问题时,可能不会给出有帮助或者符合微软价值观的回答。OpenAI则表示,将会改进ChatGPT的默认行为,在更加广泛的范围内定义人工智能的价值观,致力于解决偏见的问题。
OpenAI指出,ChatGPT跟普通软件不同,ChatGPT是大规模的神经网络系统,它所执行的结果是从大量的数据中学习得来的,而不是通过软件编程确认的。ChatGPT的学习过程更像是训练家中的宠物狗。
ChatGPT的训练过程主要通过2个步骤预训练和微调。
ChatGPT在接受预训练时,会先对几十亿个句子进行学习,首先需要学习语法,然后再学习一些事实,获得一些推理能力,还需要知道这几十亿个句子中存在的偏见。
然后,OpenAI需要对一些特定的数据集进行标注,然后再用这些标注的数据集去训练ChatGPT的内核GPT3,进行微调。由于无法预测用户可能会问什么样的问题,因此OpenAI不会对每个问题都给出详细的答案。
由于ChatGPT系统设计上的缺陷,以及训练数据集的问题,在回答一些问题时,会有偏见性的描述。OpenAI表示,对于涉及政治和有争议的话题,为了避免偏见的产生,规定标注人员不应该偏袒任何政治团体。
为了能够使ChatGPT走得更远,OpenAI将会在三个方向进行改进。
1.改进默认行为。让用户发现ChatGPT的回答对客户有用,同时也会尊重他们的价值观。目前,ChatGPT所面临的问题是,应当拒绝的回答,没有拒绝;不应该拒绝的回答,却拒绝了。这是OpenAI需要解决的问题。
2.在更加广泛的范围内定义人工智能的价值观。由于越来越多的人,开始担心人工智能的发展,将会危害人类社会。因此OpenAI需要給自己的人工智能系统制定价值观,使其符合人类社会的发展。
3.为了能够得到更加客观的观点,OpenAI表示将会接受各种观点的输入,不会将一些观点弃之门外。
为了避免ChatGPT重蹈覆辙,OpenAI向外界表示自己将会努力改进系统。这也是为了拯救微软的必应搜索。本来微软希望借助ChatGPT打败谷歌。没想到,谷歌的Bard打败了谷歌,ChatGPT让微软下不了台。人工智能的改进是一个长期的过程,不仅仅是模型和算法的问题,训练的数据集也非常的重要。